Sergio Frasca

Analisi dei Segnali


Dipartimento di Fisica
Università di Roma “La Sapienza”





Versione 10 dicembre 2010
Versione aggiornata in http://grwavsf.roma1.infn.it/sp/sp.pdf
2
3
Sommario

1 Introduzione: segnali e sistemi ...................................................................................... 7
1.1 Introduzione ........................................................................................................... 7
1.2 Segnali.................................................................................................................... 8
1.2.1 Classificazione dei segnali ................................................................................. 8
1.2.2 Segnali notevoli ................................................................................................. 9
1.3 Sistemi.................................................................................................................. 12
1.3.1 Classificazione dei sistemi ............................................................................... 13
2 Argomenti introduttivi .................................................................................................. 16
2.1 Sistemi lineari continui ........................................................................................ 16
2.1.1 Trasformata di Laplace .................................................................................... 18
2.1.2 Trasformata di Fourier ..................................................................................... 19
2.1.3 La funzione di trasferimento ............................................................................ 26
2.1.4 Semplici sistemi lineari continui ...................................................................... 29
2.2 Teoria delle probabilità ........................................................................................ 37
2.2.1 Variabili casuali ............................................................................................... 37
2.2.2 Variabili casuali discrete .................................................................................. 37
2.2.3 Variabili casuali continue ................................................................................ 39
2.2.4 Somma di variabili casuali indipendenti e funzione caratteristica................... 46
2.2.5 Distribuzione di una funzione di variabile casuale .......................................... 48
2.2.6 Variabili casuali multiple e covarianza ............................................................ 49
2.3 Statistica ............................................................................................................... 56
2.3.1 L’inferenza statistica - Stima dei parametri ..................................................... 56
2.3.2 Il Principio dei Minimi Quadrati (e del minimo χ
2
) ......................................... 57
2.3.3 Il Principio della Massima Verosimiglianza .................................................... 59
2.3.4 La Stima Bayesiana.......................................................................................... 62
2.3.5 Stima del valor medio ...................................................................................... 63
2.3.6 Stima della varianza ......................................................................................... 65
2.3.7 Esempi di stima ai minimi quadrati: stima dei parametri di una retta
sperimentale (“fit lineare”) .......................................................................................... 66
2.3.8 Esempi di stima ai minimi quadrati: fit lineare generale – fit polinomiale ..... 69
2.3.9 Media pesata .................................................................................................... 71
2.3.10 Test statistici ................................................................................................ 72
2.3.11 Test di consistenza con un valore teorico .................................................... 73
2.3.12 Test di consistenza tra due valori sperimentali ............................................ 73
2.3.13 Test del _
2
.................................................................................................... 74
3 Sistemi discreti ............................................................................................................. 76
3.1 Introduzione ......................................................................................................... 76
3.2 Casi particolari ..................................................................................................... 78
3.2.1 Semplice applicazione di sistemi MA e AR .................................................... 79
3.3 Trasformata z ....................................................................................................... 81
3.3.1 Analogia con la trasformata di Laplace ........................................................... 82
3.3.2 Proprietà della trasformata z ............................................................................ 82
3.3.3 Alcune trasformate z ........................................................................................ 84
3.4 Trasformata di Fourier discreta ed FFT ............................................................... 85
3.4.1 La trasformata di Fourier per dati discreti (DTFT) .......................................... 85
3.4.2 La DFT (e la FFT)............................................................................................ 86
3.5 Equazioni alle differenze ..................................................................................... 87
4
3.6 Funzione di trasferimento discreta ....................................................................... 88
3.6.1 Differenze e derivate ........................................................................................ 90
3.7 Risposta di un sistema discreto ............................................................................ 92
3.7.1 Risposta impulsiva ........................................................................................... 92
3.7.2 Risposta forzata ................................................................................................ 92
3.7.3 Evoluzione libera ............................................................................................. 93
3.8 Stabilità ................................................................................................................ 95
3.9 Sistemi semplici ................................................................................................... 96
3.9.1 Sistema di ordine 0........................................................................................... 96
3.9.2 Sistema MA del primo ordine .......................................................................... 96
3.9.3 Due sistemi MA del primo ordine in cascata: MA del secondo ordine ......... 103
3.9.4 Sistema AR del primo ordine (reale) ............................................................. 106
3.9.5 Sistema AR del primo ordine (complesso) .................................................... 113
3.9.6 Sistema AR del secondo ordine ..................................................................... 116
3.9.7 Semplici sistemi ARMA ................................................................................ 119
3.10 Sistemi non-lineari – i sistemi di Volterra ......................................................... 124
4 Segnali transitori ....................................................................................................... 125
4.1 Energia, posizione e lunghezza di un segnale transitorio .................................. 125
4.2 Convoluzione, cross-correlazione e distanza di due impulsi ............................. 127
4.3 Trasformata di Fourier di un segnale ad energia finita ...................................... 128
4.4 Autocorrelazione e spettro di energia ................................................................ 130
4.5 Segnale analitico ................................................................................................ 131
4.6 Segnali permanenti ............................................................................................. 134
5 Processi stocastici ...................................................................................................... 135
5.1 Introduzione ....................................................................................................... 135
5.1.1 Definizione ..................................................................................................... 135
5.1.2 Funzioni del secondo ordine .......................................................................... 136
5.1.3 Il caso di due processi .................................................................................... 137
5.1.4 Stazionarietà, ergodicità ................................................................................. 138
5.1.5 Esempi............................................................................................................ 141
5.2 Trasformazioni di processi stocastici ................................................................. 141
5.2.1 Sistema statico (senza memoria) .................................................................... 142
5.2.2 Sistema lineare (tempo invariante) ................................................................ 142
5.2.3 Un caso particolare: il derivatore ................................................................... 144
5.3 Processi stocastici normali ................................................................................. 145
5.3.1 Proprietà fondamentali ................................................................................... 145
5.3.2 Il rumore bianco ............................................................................................. 146
5.3.3 Processi stocastici normali e sistemi lineari ................................................... 146
5.4 Processi discreti: processi ARMA ..................................................................... 148
5.4.1 Résumé dei risultati........................................................................................ 148
5.4.2 Rumore bianco discreto ................................................................................. 150
5.4.3 Processi AR, MA e ARMA ........................................................................... 153
5.4.4 Processo AR del primo ordine (reale) ............................................................ 153
5.4.5 Processo AR del primo ordine (complesso) ................................................... 155
5.4.6 Processo AR del secondo ordine .................................................................... 158
5.5 Processo di Poisson ............................................................................................ 161
6 Analisi statistica dei segnali ...................................................................................... 163
6.1 Il campionamento............................................................................................... 164
6.1.1 Teorema del campionamento ......................................................................... 164
6.1.2 Aliasing e filtri anti-aliasing .......................................................................... 166
5
6.1.3 Generalizzazione ............................................................................................ 167
6.1.4 Il caso dei segnali complessi .......................................................................... 167
6.1.5 Rumore di quantizzazione.............................................................................. 168
6.2 Caratteristiche statiche – Istogramma, momenti campionari ............................. 170
6.3 Autocorrelazione ................................................................................................ 172
6.4 Spettro di potenza .............................................................................................. 174
6.4.1 Stimatori spettrali non parametrici ................................................................. 175
6.4.2 Stimatori spettrali parametrici ........................................................................ 187
6.5 Cross-correlazione e cross-spettro ..................................................................... 189
6.6 Coerenza ............................................................................................................ 190
7 Filtraggio e trasformazione dei dati .......................................................................... 191
7.1 Segnali e rumori, rapporto segnale/rumore ........................................................ 191
7.2 Il filtro adattato .................................................................................................. 193
7.2.1 Caso del rumore bianco ................................................................................. 193
7.2.2 Altre dimostrazioni ........................................................................................ 196
7.2.3 Caso generale ................................................................................................. 197
7.3 Teoria della rivelazione (Detection Theory) ...................................................... 200
7.4 Filtro di Wiener .................................................................................................. 204
7.5 Realizzazione di filtri ......................................................................................... 206
7.5.1 Filtri FIR ........................................................................................................ 206
7.5.2 Filtri IIR ......................................................................................................... 206
7.5.3 Filtri a sfasamento nullo................................................................................. 206
7.5.4 Filtri in frequenza ........................................................................................... 207
7.6 I disturbi impulsivi - Filtro a mediana ............................................................... 209
8 Cenno alla trasformata wavelet ................................................................................. 210
9 Cenni al caso di dati non stazionari .......................................................................... 211
9.1 Analisi tempo-frequenza .................................................................................... 212
9.2 Filtri adattivi....................................................................................................... 213
10 Cenni ai modelli non lineari ...................................................................................... 214
10.1 Filtri non lineari ................................................................................................. 215
10.2 Il bispettro .......................................................................................................... 216
11 Cenno all’image processing ...................................................................................... 226
11.1 Immagini ed elaborazione delle immagini ......................................................... 226
11.2 Elaborazione lineare delle immagini ................................................................. 230
11.3 La compressione JPEG ...................................................................................... 237
12 Un’applicazione: la ricerca di periodicità ................................................................ 238
12.1 Introduzione al problema ................................................................................... 238
12.2 Il periodogramma ............................................................................................... 240
12.3 Metodi parametrici ............................................................................................. 242
12.4 Il lock-in ............................................................................................................. 243
12.5 L’analisi di fase .................................................................................................. 246
12.6 Il fit armonico .................................................................................................... 247
12.7 Il caso del campionamento non uniforme .......................................................... 248
12.8 Periodicità non coerenti ..................................................................................... 250
12.9 Periodicità di eventi ........................................................................................... 251
13 Appendici ................................................................................................................... 252
Esercitazioni con Matlab ................................................................................................ 252
Introduzione a Matlab ................................................................................................ 252
Snag............................................................................................................................ 255
Uso di SnagLab (versione VB) ...................................................................................... 256
6
Introduzione ............................................................................................................... 256
Istallazione ................................................................................................................. 256
Uso ............................................................................................................................. 256
Tabelle............................................................................................................................ 261
Distribuzione cumulativa normale standardizzata ..................................................... 261
Valori del
2
_ per un dato livello di fiducia ............................................................... 262
Bibliografia .................................................................................................................... 263
Generale ..................................................................................................................... 263
Segnali deterministici – Filtraggio ............................................................................. 263
Segnali stocastici ........................................................................................................ 264
Aspetti matematici ..................................................................................................... 265
Immagini .................................................................................................................... 266
Altro ........................................................................................................................... 267
Indice Analitico .................................................................................................................. 268




7
1 Introduzione: segnali e sistemi

1.1 Introduzione

Si supponga di osservare, con opportuni strumenti di misura, una o più grandezze relative a un
certo fenomeno fisico. Queste misure sono in genere dei segnali variabili nel tempo.

L’analisi di questi segnali consiste in genere in:

- Descrivere in modo sintetico e significativo le grandezze in esame ed eventualmente la loro
variazione temporale.

- Correlare
1
tra loro le varie grandezze, trovando eventuali relazioni di causalità o di con-
causalità.

- Indagare su parametri interni del processo generatore.

- Ridurre l’eventuale “rumore” presente nei dati di misura.


Per far ciò si utilizzano modelli matematici che rappresentano (soltanto) le caratteristiche di
nostro interesse (cioè “semplificano” la realtà) e ci si può utilmente avvalere di una serie di
strumenti, una specie di “cassetta degli attrezzi” (toolbox) che potranno essere utilizzati a
seconda della necessità.

Per lo sviluppo di questi modelli e strumenti ci si avvale della teoria dei sistemi e della teoria
dei processi stocastici.

L’analisi dei segnali ha avuto negli ultimi cinquanta anni un grande sviluppo, soprattutto per la
diffusione dei calcolatori digitali. Ma i segnali, che vengono in genere prodotti in modo
continuo dai processi fisici, per essere “trattati” dai calcolatori digitali devono essere
discretizzati. La matematica per trattare questo tipo di dati è in genere abbastanza diversa
dall’analisi classica.

Lo scopo di questo corso è presentare sinteticamente gli elementi della teoria dei sistemi
discreti e la teoria dei processi stocastici che sono utili per l’analisi e l’elaborazione dei segnali.
Sono quindi presentati vari strumenti sviluppati per questi scopi.






1
Qui il termine “correlare” è usato in senso lato, nel significato di cercare relazioni e dipendenze statistiche
tra di loro: non necessariamente “calcolare il coefficiente di correlazione” o la correlazione incrociata.
8
1.2 Segnali

Un segnale è una funzione del tempo
2
che rappresenta una grandezza fisica.

Un segnale è detto a tempo continuo, o semplicemente continuo, se è definito per tutti i
valori di un intervallo della variabile reale tempo
3
(t); per esempio una tensione elettrica

(1.1) ( )
iniziale finale
x t per t t t s s

È detto discreto se è definito per un insieme discreto dei valori della variabile t; in tal caso in
genere viene rappresentato dalla successione di questi valori

(1.2)
1 2
, , ....,
N
x x x

1 2
{ , , ...., }
N
x x x è detta successione o serie temporale.

Talora gli indici non partono da 1, ma possono prendere anche valori negativi (e ovviamente
0). Spesso un segnale discreto viene ottenuto “campionando” un segnale continuo, cioè
estraendo i valori del segnale continuo ad un insieme discreto di valori del tempo
1 2
, ,...,
N
t t t ;
considerando il segnale continuo ( ) x t , otteniamo i valori

(1.3)
1 2
( ), ( ),...., ( )
N
x t x t x t

Tali valori sono detti campioni (samples) e possono essere indicati come nella (1.2). Tale
procedura viene detta campionamento (sampling); particolarmente usato è il
campionamento uniforme, in cui è costante la differenza
1 i i
t t t
+
A = ÷ , detta “tempo di
campionamento” (sampling time). Viene definita la frequenza di campionamento (sampling
frequency) come

(1.4)
1
S
t
v =
A


Nel seguito, considerando segnali discreti, faremo riferimento implicitamente sempre a
segnali campionati uniformemente.

1.2.1 Classificazione dei segnali

Oltre alla classificazione tra segnali continui e discreti, esistono altre caratteristiche peculiari di
un segnale:


2
Si fa differenza tra un tempo assoluto e un tempo relativo, ovvero una differenza temporale. Un segnale
può essere osservato a un preciso tempo (tempo assoluto), ma in genere viene descritto in tempo relativo, per
esempio prendendo l'origine temporale all'inizio del segnale.
3
Si distingue in genere tra tempo assoluto (indicata in genere con t) e distanza temporale (in genere indicata
con t ). In questo caso parliamo di tempo assoluto.
9
- Reale o complesso, cioè a un dato istante il segnale è un numero reale o un numero
complesso.
- Scalare o vettoriale, cioè se è descritto da un singolo numero ad ogni istante, o da più
numeri.
- Analogico o digitale, cioè il segnale ad un dato istante può assumere qualsiasi valore reale
in un dato intervallo (segnale analogico) o solo un numero discreto di valori (segnale
digitale), tipicamente multipli di un certo valore detto “quanto di conversione analogico-
digitale”: è questo il caso dei segnali acquisiti da un sistema digitale tramite un convertitore
ADC. In genere i segnali digitali sono anche discreti nel tempo.
- Periodico, se esiste un valore τ tale che, per tutti i valori di t, se il segnale è continuo (τ è
un numero reale)

(1.5) ( ) ( ) x t x t t = +

e se il segnale è discreto
4
(τ è un numero intero)

(1.6)
i i
x x
t +
=

- Deterministico o casuale (o stocastico): questa classificazione riguarda il “modello” del
segnale: nel primo caso se è completamente definito a priori il suo valore, nel secondo se è
definito solo statisticamente. I segnali deterministici possono godere di particolari
simmetrie rispetto a un certo istante, per esempio all’istante t=0: sono detti pari se x(t)=x(-
t) e dispari se x(t)=-x(-t).


1.2.2 Segnali notevoli


- Segnale costante

Continuo Discreto

( ) x t c =
i
x c =

quando c = 0 , diciamo che c’è assenza di segnale.


- Segnale a gradino

Continuo Discreto


0 ( )
0 ( )
t u t
t u t
< ÷ = 0 ¦
´
> ÷ =1
¹

0
0
i
i
i u
i u
< ÷ = 0
¦
´
> ÷ =1
¹




4
In effetti questa definizione è restrittiva: se campioniamo un segnale continuo periodico, abbiamo in genere
un segnale discreto che non è periodico secondo questa definizione.
10

- Segnale a delta; è la “derivata” (o la differenza nel caso discreto) del segnale a gradino.
Nel caso continuo è una delta di Dirac, nel caso discreto è un segnale sempre nullo, ma che
vale 1 in 0, detto anche impulso unitario o funzione impulsiva discreta:

Continuo Discreto

( ) t o
0
0
i
i
i
i
o
o
= ÷ =1
¦
´
= ÷ = 0
¹


e quindi

( ) ( )
t
u t d o k k
÷·
= ·
}

i
i k
k
u o
=÷·
=
¿





- Segnale sinusoidale

Continuo Discreto

( ) sin( ) x t A t e ¢ = · · + sin( )
i
x A t i e ¢ = · · A · +

Nella figura il segnale continuo è indicato con la linea continua e quello discreto con i
pallini:

Figura 1-1


11







- Segnale esponenziale complesso
5


Continuo Discreto

( ) exp ( )
t
x t A j t e ¢
t
(
= · ÷ + · · +
(
¸ ¸
exp ( )
i
t i
x A j t i e ¢
t
A ·
(
= · ÷ + · · A · +
(
¸ ¸





- Rumore bianco, il più semplice segnale stocastico, se ne parlerà nel capitolo sui processi
stocastici.




5
Indichiamo con j l’unità immaginaria.
12
1.3 Sistemi


Un sistema è un modello matematico di un dispositivo o di un processo fisico o di un
algoritmo, che connette uno o più segnali di ingresso (eccitazione o “input”) a uno o più
segnali di uscita (risposta o “output”). Un sistema quindi è sostanzialmente un
elaboratore di segnali.



Figura 1-2

Mentre i processi fisici sono modellizzabili più naturalmente con sistemi continui ed i segnali
fisici con segnali continui, il loro trattamento con i calcolatori digitali rende fondamentale lo
studio di sistemi e segnali discreti.

Più sistemi possono essere connessi insieme, e questo insieme può essere rappresentato da un
nuovo sistema. Nella figura seguente è rappresentato un insieme di sistemi connessi tra di loro
in vario modo.


Figura 1-3

Si notino i simboli circolari che indicano i “nodi somma”, semplici sistemi con due o più
ingressi e una sola uscita che eseguono la somma dei segnali di ingresso.

Modi particolarmente semplici, e spesso utili, di connettere dei sistemi sono i due seguenti:

- Connessione in serie (o in cascata)


Sistema Input Output
13

Figura 1-4

- Connessione in parallelo


Figura 1-5

Attenzione ! Nella teoria dei sistemi il comportamento di un sistema non è modificato dalla
presenza degli altri a cui è connesso. Come è noto, non è così per un normale sistema fisico
(basti pensare ad un circuito RC passa-basso, la cui risposta dipende dall’impedenza d’ingresso
del sistema che lo segue). Per sistemi elettrici, in cui le variabili di ingresso e di uscita sono
tensioni elettriche, questa caratteristica equivale ad una impedenza d’ingresso infinita e
un’impedenza di uscita nulla.

Come vedremo in questo corso, segnali e sistemi sono correlati tra di loro: i sistemi non ci
serviranno solo per elaborare segnali, ma, in certi casi, per rappresentarli.

1.3.1 Classificazione dei sistemi

Oltre alla classificazione tra sistemi continui e discreti (cioè che elaborano segnali discreti o
continui), esistono altre caratteristiche peculiari di un sistema:

- Statico o dinamico, detto anche senza memoria o con memoria, cioè se l’uscita ad un
dato istante dipende solo dall’ingresso a quell’istante o no. Un sistema dinamico è
caratterizzato dalla presenza di stati interni. In altri termini l’effetto della “memoria” del
sistema viene schematizzato supponendo che l’uscita a un dato istante non dipende solo
dall’ingresso a quell’istante, ma anche dal valore dello “stato”. Quindi, mentre un sistema
statico è completamente definito dall’equazione
F
1

F
2

F
N

F
1
F
2
F
N

14

(1.7) ( ) y F x =

dove x e y sono rispettivamente il vettore degli ingressi e quello delle uscite, ad un dato
istante. Se il sistema è dinamico, invece, nel caso di sistemi continui, occorrono le due
equazioni

(1.8)
( , )
( , )
y F x s
s G x s
¦ =
¦

´
¦
=
¹


dove s è il vettore di stato in quell’istante. La prima equazione viene detta equazione di
uscita (output equation), la seconda equazione di stato (state equation). Nel caso di
sistemi discreti,

(1.9)
1
( , )
( , )
i i i
i i i
y F x s
s G x s
÷
= ¦
¦

´
¦
=
¹


Un esempio di sistema dinamico è un circuito RC passa-basso, in cui l’ingresso e
l’uscita sia tensioni: in tal caso la variabile di stato è la carica del condensatore
6
.



Figura 1-6


- Causale, se l’uscita non precede l’ingresso. Tutti i sistemi fisici sono causali, non così
quelli simulati su calcolatore.

- Lineare, se ad una qualsiasi combinazione lineare di differenti ingressi, corrisponde in
uscita la stessa combinazione lineare delle relative uscite (principio di sovrapposizione).
Indichiamo con L l’operatore che descrive il sistema. Se il sistema è lineare, allora


6
Il circuito in figura non ha le caratteristiche ideali di un sistema: infatti il suo “comportamento” varia a
seconda di cosa mettiamo alla sua uscita ed inoltre esso “carica” il generatore che mettiamo all’ingresso. Se
supponiamo che all’ingresso ci sia un generatore di impedenza di uscita nulla e all’uscita un apparato di
impedenza di ingresso infinita, il suo comportamento è assimilabile a un sistema ideale.
15
(1.10) ( ) ( ) ( ) ( )
1 1 2 2 1 1 2 1
L a x t a x t a L x t a L x t · + · = · + · ( ( (
¸ ¸ ¸ ¸ ¸ ¸


Nel caso di sistemi lineari, le equazioni (1.8) sono lineari.


- Tempo-invariante, se il comportamento non varia nel tempo. In tal caso le funzioni F e
G sono indipendenti dal tempo.

- Stabile, se ad un ingresso di ampiezza limitata, corrisponde un’uscita di ampiezza limitata
7
.





7
Nella teoria dei sistemi di controllo vengono definiti vari tipi di stabilità che non interessano la presente
trattazione.
16
2 Argomenti introduttivi

2.1 Sistemi lineari continui

In questo capitolo ci occuperemo dei sistemi continui lineari tempo-invarianti. Inoltre faremo
riferimento essenzialmente a sistemi con un solo ingresso e una sola uscita.

Un sistema lineare tempo-invariante è completamente definito una volta nota la risposta
impulsiva, cioè la risposta del sistema a un input a delta di Dirac.

Per dimostrarlo, indichiamo questa risposta come

(2.1) ( ) [ ( )] f t t o = W

dove W[ ] indica l’operazione effettuata dal sistema (l’operatore del sistema).

Ricordiamo che una proprietà importante della funzione delta è

(2.2) ( ) ( ) ( ) x t x t d t o t t
·
÷·
= ÷
}


data la linearità del sistema, abbiamo che la risposta a un ingresso x(t) è

(2.3)
( ) ( )
| |
( ) ( )
( ) ( ) ( ) ( )
y t x t x t d
x t d x f t d
t o t t
t o t t t t t
·
÷·
· ·
÷· ÷·
(
= = ÷ = (
¸ ¸
(
¸ ¸
= ÷ = ÷
}
} }
W W
W



Possiamo anche porre

(2.4) ( ) ( ) ( ) ( ) ( ) y t x t f t d f x t d t t t t t
· ·
÷· ÷·
= ÷ = ÷
} }



Questo integrale è l’integrale di convoluzione tra le funzioni x e f. Questo risultato può
essere visto in questo modo:

- l’uscita di un sistema lineare è una media pesata del suo ingresso, il peso essendo
dato dalla risposta impulsiva del sistema.

Notiamo che se il sistema è causale, ( ) f t e nulla per 0 t < .

L’operazione di convoluzione (2.4) è spesso indicata nella forma abbreviata

(2.5) y f x = ©

17
Esso gode delle proprietà

o commutativa f x x f © = ©
o associativa ( ) ( ) a b c a b c a b c © © = © © = © ©
o distributiva ( ) ( ) ( ) a b c a b a c © + = © + ©

Inoltre si dimostra che

(2.6)
( ) d a b
da db
b a
dx dx dx
©
= © = ©

Quindi se facciamo la convoluzione della funzione a per la derivata della b, abbiamo come
risultato la derivata della convoluzione della a per la b (e l’analogo per la commutatività).
Infine

(2.7)
( ) ( ) ( ) a b dx a x dx b x dx
· · ·
÷· ÷· ÷·
( (
© · = · · ·
( (
¸ ¸ ¸ ¸
} } }



Il che significa, tra l’altro, che se facciamo la convoluzione di una qualsiasi funzione per
un’altra il cui integrale da -∞ e ∞ è nullo, l’integrale del risultato, da -∞ e ∞, è nullo.

Un sistema continuo lineare, con un ingresso e un’uscita, può essere definito talora da
un’equazione differenziale ordinaria lineare (caso dei sistemi lineari a parametri concentrati; il
caso alternativo è detto “a parametri distribuiti”, il cui caso più semplice è una linea di ritardo).
Se il sistema è tempo-invariante i coefficienti dell’equazione sono indipendenti dal tempo:

(2.8)
( ) ( )
0 0
k l
n m
k l k l
k l
d y t d x t
A B
dt dt
= =
=
¿ ¿



In esso x è la variabile indipendente (ovvero l’ingresso, per esempio la forza) e y la variabile
dipendente (ovvero l’uscita, per esempio lo spostamento).

Un esempio di un tale sistema può essere un circuito elettrico comprendente solo elementi
lineari, cioè resistenze ohmiche, induttanze e condensatori.

Un sistema continuo lineare a parametri concentrati con più ingressi e più uscite è descritto da
un sistema di equazioni differenziali lineari.

Come è noto, un sistema descritto da un’equazione differenziale lineare ha la soluzione
composta da due parti additive: la risposta libera e la risposta forzata, la prima dipendente
da un numero di parametri pari all’ordine dell’equazione, è la risposta che si ha nel caso sia
nulla l’eccitazione (l’ingresso), la seconda nel caso in cui sia nullo lo stato.

Nella teoria dei sistemi, spesso si trascura la presenza della risposta libera.


18
2.1.1 Trasformata di Laplace

La trasformata di Laplace di una funzione è definita da (trasformata bilaterale)

(2.9) ( ) ( )
st
F s f t e dt
·
÷
÷·
= ·
}



o (trasformata unilaterale, più frequentemente usata)

(2.10)
0
( ) ( )
st
F s f t e dt
·
÷
= ·
}


dove s j o e = + (con j indichiamo l’unità immaginaria).
Essa viene anche indicata con { } ( ) ( ) F s f t = L o, se è chiaro dal contesto che stiamo
trattando con trasformate di Laplace, con ( ) ( ) f t F s ÷ .
In genere l’integrale converge solo per un sotto-insieme del piano s, detto regione di
convergenza, ovvero per un intervallo della variabile o , parte reale di s.

La trasformata inversa viene ricavata con i metodi della teoria delle funzioni di variabile
complessa, e si ha

(2.11) ( ) ( )
1
2
c j
st
c j
f t e F s ds
j t
+ ·
÷ ·
= · · ·
}


dove c è scelto in modo tale che tutti i punti singolari della ( ) F s giacciano a sinistra della retta
( ) Re s c = del piano complesso rappresentante s.

Le proprietà più importanti della trasformata di Laplace sono appresso elencate. Sia
( ) ( ) x t X s ÷ ,
1 1
( ) ( ) x t X s ÷ ,
2 2
( ) ( ) x t X s ÷ . Si ha:

- Linearità:
1 2 1 2
( ) ( ) ( ) ( ) a x t b x t a X s b X s · + · ÷ · + ·

- Spostamento nel tempo (ritardo
0
t ):
0
0
( ) ( )
st
x t t e X s
÷
÷ ÷

- Spostamento nel dominio s:
0
0
( ) ( )
s t
e x t X s s ÷ ÷

- Cambiamento di scala temporale:
1
( )
| |
s
x at X
a a
| |
÷
|
\ .


- Inversione temporale: ( ) ( ) x t X s ÷ ÷ ÷

- Differenziazione nel dominio del tempo:
( )
( )
d x t
s X s
d t
÷ ·



19
- Integrazione nel dominio del tempo:
1
( ) ( )
t
x d X s
s
t t
÷·
÷
}


- Differenziazione nel dominio s:
( )
( )
dX s
t x t
ds
÷ · ÷

- Convoluzione:
1 2 1 2
( ) ( ) ( ) ( ) x x t d X s X s t t t
·
÷·
÷ ÷ ·
}



Come abbiamo visto, la risposta di un sistema lineare tempo-invariante può essere calcolato
con l’integrale di convoluzione dell’ingresso con la risposta impulsiva del sistema. L’uso della
trasformata di Laplace riduce formalmente questa operazione a un prodotto tra la
trasformata di Laplace del segnale d’ingresso e la trasformata di Laplace della risposta
impulsiva del sistema, che viene detta funzione di trasferimento.


2.1.2 Trasformata di Fourier

Se una funzione è periodica, cioè se
0
( ) ( ) x t x t T = + per tutti i t (T
0
è il periodo,
0
0
1
T
v = è la
frequenza e
0 0
2 e tv = la pulsazione), come è noto possiamo svilupparla in serie di Fourier,
cioè

(2.12)
0
( )
jk t
k
k
x t X e
e
·
=÷·
= ·
¿


dove i coefficienti
k
X sono ricavati da

(2.13) ( )
0
0
0
2
2
0
2
1
T
j k t
T
k
T
X x t e dt
T
t
÷ · · ·
÷
= · ·
}


La trasformata di Fourier è una generalizzazione dello sviluppo in serie di Fourier al caso in cui
la funzione x(t) non sia periodica (ovvero sia di periodo infinito).
La trasformata di Fourier è simile alla trasformata di Laplace; in essa però la variabile
“trasformata”, coniugata del tempo, è reale e indica la pulsazione (in Inglese angular
frequency; spesso viene indicata con e ). Ricordiamo che 2 e t v = · , dove v è la frequenza.
La trasformata di Fourier di una funzione x(t) è data da
8


(2.14) ( ) ( )
j t
X x t e dt
e
e
·
÷
÷·
= ·
}



8
Esistono altre definizioni, quasi equivalenti; per esempio con l’esponenziale positivo, oppure con costanti a
moltiplicare differenti.
20
Come si vede è un caso particolare della trasformata (bilatera) di Laplace, dove s je = . Le
funzioni della base trasformata sono, come si vede, esponenziali complesse (ricordiamo che
cos sin
j t
e t j t
e
e e = + · ).

Nella trasformata di Fourier c’è una simmetria perfetta tra la variabile t e la variabile e . In
pratica però, molto spesso nel dominio t le funzioni sono reali mentre sono complesse (ed
hermitiane) nel dominio e .

Notiamo che

(2.15) (0) ( ) X x t dt
·
÷·
=
}


La trasformata inversa si ottiene da

(2.16)
1
( ) ( )
2
j t
x t X e d
e
e e
t
·
÷·
= ·
}


Essa viene anche indicata con { } ( ) ( ) X s x t =F o, quando è chiaro che parliamo di
trasformate di Fourier, con ( ) ( ) x t X e ÷ . Se
( )
L
X s è la trasformata di Laplace di x(t) e
( )
F
X e la trasformata di Fourier, allora
9
( ) ( )
F L
X X j e e = .
Data la parentela con la trasformata di Laplace, la trasformata di Fourier gode di proprietà
simili, più altre dovute alla maggiore “simmetria” tra le variabili coniugate.

Guardiamo con attenzione queste proprietà, poiché nell’analisi dei segnali si fa largo uso di
questa trasformata.

Sia ( ) ( ) x t X e ÷ ,
1 1
( ) ( ) x t X e ÷ ,
2 2
( ) ( ) x t X e ÷ . Si ha:

- Linearità:
1 2 1 2
( ) ( ) ( ) ( ) a x t b x t a X b X e e · + · ÷ · + ·

Se conosciamo la trasformata di due segnali, possiamo calcolare immediatamente
quella di una combinazione di questi due segnali. Possiamo, quando è il caso,
scomporre opportunamente un segnale per calcolare,o intuire, la sua trasformata.


- Spostamento nel tempo:
0
0
( ) ( )
j t
x t t e X
e
e
÷
÷ ÷

Se trasliamo un segnale nel tempo, per la trasformata abbiamo lo stesso valore
assoluto e uno sfasamento che varia linearmente con e .
Si noti che ( ) X e è indipendente da spostamenti nel tempo.


- Spostamento nel dominioe :
0
0
( ) ( )
j t
e x t X
e
e e ÷ ÷


9
Nel caso in cui esistono entrambe.
21
Questa è la duale della precedente.
0
j t
e
e
rappresenta una oscillazione complessa:
moltiplicare x(t) per questa oscillazione complessa provoca una traslazione della
trasformata di Fourier.
Se x(t)=1, troviamo che

(2.17) ( )
0
j t
e
e
o e e
0
÷ ÷

Ora notiamo che ( )
0 0
0
2 cos
j t j t
e e t
e e
e
÷
+ = · e
( )
0 0
0
2 sin
j t j t
e e j t
e e
e
÷
÷ = · allora

(2.18) ( ) ( )
( ) ( )
0 0
0
cos
2
X X
x t t
e e e e
e
÷ + +
· ÷

(2.19) ( ) ( )
( ) ( )
0 0
0
sin
2
X X
x t t
j
e e e e
e
÷ ÷ +
· ÷


- Cambiamento di scala temporale:
1
( )
| |
x at X
a a
e | |
÷
|
\ .


Anche questa è una proprietà molto importante. la trasformazione ( ) ( ) ' x t x a t = ·
produce una contrazione o una dilatazione a seconda che |a| sia maggiore o minore di
1. Una dilatazione nel dominio t corrisponde a una contrazione nel dominio e e
viceversa.
Questa proprietà è la ragione del cosiddetto “principio di indeterminazione di
Fourier”, simile a quello di Heisenberg, che vedremo in seguito (par. 4.3).


- Inversione temporale: ( ) ( ) x t X e ÷ ÷ ÷

Se la x(t) è reale, allora ( ) ( )
*
X X e e = ÷ e quindi anche
*
( ) ( ) x t X e ÷ ÷


- Differenziazione nel dominio del tempo:
( )
( )
d x t
j X
d t
e e ÷ ·



Questa proprietà può essere generalizzata con

(2.20) ( )
( )
( )
n
n
n
d x t
j X
d t
e e ÷ ·



- Integrazione nel dominio del tempo:
1
( ) (0) ( ) ( )
t
x d X X
j
t t t o e e
e
÷·
÷ +
}



- Differenziazione nel dominio e :
( )
( )
dX
j t x t
d
e
e
÷ · · ÷
22


- Convoluzione:
1 2 1 2
( ) ( ) ( ) ( ) x x t d X X t t t e e
·
÷·
÷ ÷ ·
}


Sostituire una operazione come la convoluzione, spesso complicata, se eseguita
analiticamente, o computazionalmente costosa, se eseguita numericamente, con una
moltiplicazione rende spesso molto utile lavorare nel dominio trasformato di Fourier.

e inoltre:

- Moltiplicazione:
1 2 1 2
( ) ( ) ( ) ( ) x t x t X X d u e u u
·
÷·
· ÷ ÷
}


È la duale della proprietà della convoluzione.


- Identità di Parseval:

( ) ( ) ( ) ( )
* *
1 2 1 2
1
2
x t x t dt X X d e e e
t
· ·
÷· ÷·
· · = · ·
} }


( ) ( )
2 2 1
2
x t dt X d e e
t
· ·
÷· ÷·
· = ·
} }


Questa proprietà è un’utilissima relazione sull’”energia” totale del segnale nel dominio
del tempo e di e . Si noti che se l’integrale si esegue nella variabile v non compare il
“fastidioso” coefficiente
1
2t
.

Inoltre, se il segnale x(t) è reale, la sua trasformata di Fourier è ( ) ( )
*
X X e e = ÷ , cioè la
sua parte reale è pari e la parte immaginaria dispari (funzione hermitiana); se x(t), reale o
complessa, è una funzione hermitiana, la trasformata è reale, se è anti-hermitiana (
( ) *( ) x t x t = ÷ ÷ ), è immaginaria.

Ecco alcuni casi:

Dominio del tempo Dominio della frequenza

Reale Hermitiana
Reale positiva Massimo reale in 0, hermitiana
Reale pari o hermitiana Reale
Reale dispari o anti-hermitiana Immaginaria

Ricordiamo qui che, se le dimensioni di x(t) sono [x], quelle della trasformata X sono [xt].

Un risultato importante per i sistemi che si deduce dalla proprietà della trasformata di Fourier
per la convoluzione, è che se l’ingresso di un sistema lineare è una sinusoide, l’uscita è
anch’essa una sinusoide, con ampiezza e fase che dipendono dalla frequenza. Quindi per ogni
23
frequenza possiamo definire un numero complesso che abbia come modulo il “guadagno” del
sistema, cioè il rapporto tra l’ampiezza della sinusoide in uscita e quella in ingresso, e la fase la
differenza di fase tra di esse. La funzione di trasferimento (definita come la trasformata di
Laplace o di Fourier della risposta impulsiva; la vedremo meglio in seguito) dà, per ogni
frequenza, questo numero complesso.

Per quanto riguarda i segnali, la trasformata di Fourier ci dà il contenuto in energia (o, come
vedremo per i segnali di durata infinita, in potenza) alle varie frequenze. Definiamo spettro di
energia di un dato segnale, il modulo quadro della sua trasformata di Fourier.

Infine riportiamo la trasformata di Fourier di alcune significative funzioni:

- Gaussiana:

(2.21)
2 2 2
2
2 2
1
t
e e
e o
o
t o
·
÷ ÷
·
· ÷
2 ·


Notiamo che la trasformata ha la stessa forma funzionale della gaussiana (ma mentre
nel tempo è normalizzata a 1, in e no). Se prendiamo come “larghezza” nel tempo la
deviazione standard, in e la larghezza è
1
o
, quindi il prodotto delle due larghezze è
sempre 1.


- Pacchetto gaussiano:

Un “pacchetto è un segnale sinusoidale moltiplicato per una “finestra”. In questo caso
la finestra è gaussiana. Il calcolo della trasformata è facile,ricordando le proprietà su
riportate. Sono qui riportati i tre casi del pacchetto esponenziale complesso (dati
complessi, un solo picco nella trasformata), del pacchetto cosinusoidale (funzione reale
pari, trasformata reale) e del pacchetto sinusoidale (funzione dispari, trasformata
immaginaria).
Notiamo poi che più è ”largo” il pacchetto nel tempo, più sono stretti i picchi (o il
picco, nel caso complesso) nella trasformata.

(2.22)
( )
( )
( ) ( )
( )
( ) ( )
2 2 2
0
2
0
2 2 2 2
0 0
2
2
2 2 2 2
0 0
2
2
2 2
2 2
2
0
2 2
2
0
1
1
cos
2
1
sin
2
t
j t
t
t
e e e
e e
e t
e e
e t j
e e o
e
o
e e o e e o
o
e e o e e o
o
t o
e
t o
e
t o
÷ ·
÷ ÷
·
÷ · + ·
÷ ÷
÷
·
+ · ÷ ·
÷ ÷
÷
·
· · ÷
2 ·
+
· · ÷
2 ·
÷
· · ÷ ·
2 ·



24
In figura c’è un pacchetto gaussiano cosinusoidale


Figura 2-1


- Rettangolo:


(2.23) ( )
( )
1 per | | sin
; 2
0 per | |
t a a
r t a a
t a a
e
e
< · ¦
= ÷ ·
´
> ·
¹


Se prendiamo come misura della larghezza delle due funzioni il valore più basso in cui
si azzerano, abbiamo che nel dominio t è a, nel dominio e è
a
t
.
È stata introdotta la funzione sinc(x) come

(2.24) ( )
( ) sin
sinc
x
x
x
=

e la trasformata dell’impulso rettangolare può scriversi in termini di questa funzione. La
sinc ha una notevole importanza nello studio del campionamento di segnali continui.


- Pacchetto rettangolare:

La situazione è analoga al caso del pacchetto gaussiano.



25

- Esponenziale simmetrico ÷ Lorentziana ( distribuzione di Cauchy):

(2.25)
| |
2
2
2
1
t
e
x
t t
t
÷
÷
| |
+
|
\ .




- Pacchetto esponenziale simmetrico:

La situazione è analoga al caso del pacchetto gaussiano.





- delta:

(2.26) ( ) t o ÷ 1


- costante:

(2.27) ( ) ( ) 0 x t c c t o = ÷ 2 ·


- gradino:

(2.28) ( ) ( ) u t
j
t o e
e
1
÷ + ·


- esponenziale complesso:


(2.29) ( )
0
j t
e
e
t o e e
0
÷ 2 · ÷


- esponenziale decrescente:

(2.30) ( )
t
u t e
j
t
e
t
÷
1
· ÷
1
+


26
Si noti che la stessa funzione invertita nel tempo ha trasformata
je
t
1
1
÷
. Sommando la
( )
t
u t e
t
÷
· e la invertita nel tempo, si ha una funzione che ha come trasformata la somma delle
trasformate

(2.31)
( ) ( )
| |
2
2
t t t
u t e u t e e
j j
t t t
t
e e e
t t t
÷ ÷
· + ÷ · = ÷
2
1 1
+ =
1 1 1
+ ÷ +


che non è altro che la (2.25).



- “doppio polo”:

(2.32) ( )
2
t
u t t e
j
t
e
t
÷
1
· · ÷
1
| |
+
|
\ .




2.1.3 La funzione di trasferimento

Abbiamo visto che un sistema lineare tempo invariante può essere definito dalla risposta
impulsiva. Infatti (equazione (2.4)) la risposta si calcola facendo la convoluzione dell’ingresso
con la funzione risposta impulsiva.
La funzione di trasferimento F(s) è la trasformata di Laplace della risposta impulsiva f(t).
Per la proprietà della trasformata di Laplace sulla convoluzione, essendo X(s) e Y(s) le
trasformate di Laplace dell’ingresso e dell’uscita del sistema, abbiamo

(2.33) ( ) ( ) ( ) Y s F s X s = ·

Inoltre, se abbiamo n sistemi in cascata (in serie), con funzioni di trasferimento
( ) ( ) ( )
1 2
, , ,
n
F s F s F s ... , la funzione di trasferimento complessiva F(s) è data dal prodotto
delle singole funzioni

(2.34) ( ) ( ) ( ) ( )
1 2 n
F s F s F s F s = · · ... ·

e se abbiamo n sistemi in parallelo (cioè tutti con lo stesso ingresso e con tutte le uscite che
vanno a un nodo somma), con funzioni di trasferimento ( ) ( ) ( )
1 2
, , ,
n
F s F s F s ... , la funzione
di trasferimento complessiva F(s) è data dalla somma delle singole funzioni
27

(2.35) ( ) ( ) ( ) ( )
1 2 n
F s F s F s F s = + +... +

Se il sistema è a parametri concentrati, e quindi è descritto da un’equazione del tipo (2.8), allora
la funzione di trasferimento è una funzione razionale di s, e cioè

(2.36) ( )
0
0
m
i
i
i
n
i
i
i
B s
F s
A s
=
=
·
=
·
¿
¿


La funzione di trasferimento è completamente descritta avendo dato

- gli zeri del polinomio al numeratore (chiamati semplicemente “zeri” z
k
)

- gli zeri del polinomio al denominatore (chiamati “poli” p
k
)

- un fattore di guadagno che, nel cao di A
0
e B
0
diversi da 0, può essere il “guadagno in
continua”
0
0
0
B
F
A
=

Se tutti i poli sono differenti, e se n>m, dalla (2.36) si può ricavare la risposta impulsiva
(calcolata come trasformata inversa di F(s)), come un’opportuna combinazione lineare degli n
termini
i
p t
e

(2.37)
1
( )
i
n
p t
i
i
f t K e
·
=
= ·
¿


dove

(2.38) ( ) ( )
i
i i
s p
K s p F s
=
= ÷ · (
¸ ¸


Nel caso generale, in cui si hanno n
1
volte il polo p
1
, n
2
volte il polo p
2
, e così via, essendo N i
poli distinti ed essendo

(2.39)
1
N
i
i
n n
=
=
¿


abbiamo la soluzione generale, sempre nell’ipotesi di n>m (altrimenti si avrebbe una
“catastrofe ultravioletta”),

(2.40) ( )
1
( )
i
N
p t
i
i
f t g t e
·
=
= ·
¿


dove

28
(2.41) ( )
( )
( ) ( )
( )
1
1
1
! 1 !
i i
i
i
i
n n k k
n
i i n k
s p
k i
d t
g t s p F s
n k d s k
÷ ÷
÷
=
=
(
= ÷ ·
¸ ¸
÷ ÷
¿



Perché un sistema lineare tempo invariante sia stabile, condizione necessaria e sufficiente è che
la risposta impulsiva tenda a 0 per t tendente all’infinito.
Quindi dalla (2.40) si deduce immediatamente che condizione necessaria e sufficiente per
avere la stabilità è che tutti i poli abbiano parte reale negativa.

Possiamo facilmente calcolare la risposta in frequenza di un sistema di funzione di
trasferimento F(s), come

(2.42) ( ) F je

Spesso la risposta in frequenza viene rappresentata con i diagrammi di Bode o col diagramma
di Nyquist. Nel primo caso si producono due grafici, uno in cui si rappresenta il guadagno (il
valore assoluto di ( ) F je ) in funzione della frequenza (o della pulsazione) in scala doppio-
logaritmica
10
e un altro in cui si rappresenta la fase in funzione della frequenza, quest’ultima in
scala logaritmica. Nel secondo (diagramma di Nyquist) si grafica la parte immaginaria di
( ) F je in funzione della parte reale.

La (2.42) può essere ricavata direttamente dalla (2.4), che qui riportiamo

( ) ( ) ( ) y t f x t d t t t
·
÷·
= ÷
}


e che definisce un generico sistema lineare (x(t) è l’ingresso e y(t) l’uscita). Se prendiamo

(2.43) ( )
j t
x t e
e
=


abbiamo

(2.44) ( )
( )
( ) ( ) ( )
j t j t j j t
y t f e d e f e d e F j
e t e et e
t t t t e
· ·
÷ ÷
÷· ÷·
= = · = ·
} }


L’integrale è anche la trasformata di Fourier della risposta impulsiva f(t). Ciò ci porta alla
seguente definizione di funzione di trasferimento ( ) F je (ponendo e come parametro):

la ( ) F je è l’auto-valore relativo all’auto-funzione
j t
e
e
del sistema.




10
Spesso viene rappresentato il guadagno in decibel in funzione del logaritmo della frequenza.
29
2.1.4 Semplici sistemi lineari continui

1. Sistema del primo ordine passa-basso
11
, di funzione di trasferimento

(2.45)
0 0
1
1
B B
s p
s
t
=
÷
+


dove il polo
1
p è reale negativo. La risposta impulsiva è

(2.46) ( ) ( )
0
t
f t B u t e
t
÷
= · ·


La risposta in frequenza si calcola come

(2.47)
0
1
B
je
t
+


e il guadagno è

(2.48)
0 0
2
2
1 1 1
B B
G
j j e e e
t t t
= =
| || |
+ + ÷ +
| |
\ .\ .


mentre la fase è

(2.49) ( ) arctan ¢ e t = ÷ ·

Diamo i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione e )
e di Nyquist per il caso
0
1 B t = =


11
Esso può essere realizzato, per esempio, tramite l’uso di un amplificatore
operazionale (e pochi altri componenti). Vedi Appendice.




30

Figura 2-2


Figura 2-3

31

Figura 2-4



2. sistema del primo ordine passa-alto, di funzione di trasferimento

(2.50)
0 0
1
1
B s B s
s p
s
t
· ·
=
÷
+


dove il polo
1
p è reale negativo, mentre è presente lo zero nell’origine. La risposta
impulsiva è

(2.51) ( ) ( ) ( )
0
t
f t B t e u t
t
o
÷ (
= · ÷ ·
(
¸ ¸



La risposta in frequenza si calcola come

(2.52)
0
1
B j
j
e
e
t
·
+


e il guadagno è

(2.53)
0 0
2
2
1 1 1
B j j B
G
j j
e e e
e e e
t t t
÷ · ·
= =
| || |
+ + ÷ +
| |
\ .\ .


32
mentre la fase è

(2.54) ( ) arctan
2
t
¢ e t = · +

Ecco i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione e ) e di
Nyquist per il caso
0
1 B t = =


Figura 2-5

33

Figura 2-6


Figura 2-7




3. sistema del secondo ordine semplice (risonanza)

34
(2.55) ( )
0
2 2
0 2
2 1
F s
s s
e
e
t t
=
| |
+ · + +
|
\ .



Si hanno due poli complessi coniugati di valore

(2.56)
1,2 0
1
p j e
t
= ± ·

La risposta impulsiva è

(2.57) ( ) ( ) ( )
0
sin
t
f t u t e t
t
e
÷
= · ·


La risposta in frequenza è

(2.58) ( )
2 2
0 2
0
0 2
2 2
2 2 2
0 2
0 2 2
1 2
2 1
4 1
j
F j
j
e e e
e t t
e e
e e e
e e e
t t
t t
| |
÷ + ÷ · ·
|
\ .
= = ·
| |
| |
÷ + · · + +
· + ÷ + |
|
\ .
\ .


da cui il guadagno è

(2.59) ( )
0
2
2 2 2
0 2 2
1
| |
4 1
F je e
e e e
t t
= ·
| |
· + ÷ +
|
\ .


mentre la fase è

(2.60)
2 2
0 2
2
arctan
1
e
t
¢
e e
t
÷
=
÷ +


Ecco i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione e ) e di
Nyquist per il caso
0
1, 100 e t = =

35

Figura 2-8


Figura 2-9

36

Figura 2-10




37
2.2 Teoria delle probabilità

Queste note si intendono come un compendio di risultati relativi alla teoria delle probabilità.


2.2.1 Variabili casuali

Una variabile casuale è una variabile (reale o complessa) al cui valore è associata una
distribuzione di probabilità.

I parametri fondamentali di una distribuzione di probabilità sono il valor medio o valore
aspettato
12
, che in genere indicheremo con µ , che è un parametro di localizzazione della
distribuzione, e la deviazione standard, che in genere indicheremo con o , e che è un
parametro di “sparpagliamento” (o “larghezza”) della distribuzione. Spesso invece della
deviazione standard si indica il suo quadrato
2
o , detto varianza.

Distinguiamo tra variabili casuali discrete e continue.


2.2.2 Variabili casuali discrete

Le variabili casuali discrete sono definite da insiemi numerabili (finiti o infiniti) di valori che
possono prendere, a cui è associata una distribuzione discreta di probabilità
k
p , con k la
variabile discreta, tale che

(2.61) 1
k
k
p =
¿


Per una distribuzione discreta si definisce

- il valore aspettato

(2.62) | |
k
k
E k k p µ = = ·
¿



- la varianza

(2.63) ( ) ( )
2 2
2
k
k
E k k p o µ µ
(
= ÷ = ÷ ·
¸ ¸
¿


La deviazione standard o è definita come la radice quadrata della varianza.


12
In passato veniva anche indicato come speranza matematica.
38
- i momenti centrali di ordine N

(2.64) ( ) ( )
( )
N N
N
k
k
E k k p µ µ µ
(
= ÷ = ÷ ·
¸ ¸
¿



Esempi di distribuzioni discrete sono:

- la distribuzione uniforme discreta (per esempio quella delle facce di un dato "onesto")

(2.65)
1
per 1
k
p k N
N
= s s

con

(2.66)
1
2
N
µ
+
=

e

(2.67)
2
1
12
N
o
÷
=


- la distribuzione binomiale (che è definita per un numero finito di valori)

(2.68) (1 )
k N k
k
N
p p p
k
÷
| |
= ÷
|
\ .


definita dai parametri p ed N. Per essa

(2.69)
| | E k N p µ = = ·

(2.70) ( )
2
1 N p p o = · · ÷


- la distribuzione di Poisson (che è definita per un numero infinito, ma numerabile di
valori)

(2.71) ( ; )
!
k
P k e
k
µ
µ
µ
÷
=

definita dal solo parametro µ . Il valore aspettato è proprio µ e anche
2
o µ = .


39
2.2.3 Variabili casuali continue

Una variabile casuale continua è una variabile reale o complessa su cui è definita una funzione
di densità di probabilità f(x), che ha le seguenti proprietà, per x ÷·< < ·,

o ( ) 0 f x >
o ( ) 1 f x dx
·
÷·
=
}

o Prob( ) ( )
b
a
a x b f x dx s s =
}


Date queste proprietà, si ha che, se f(x) è una densità di probabilità, allora lo è anche

(2.72) ( ) ( ) ' f x A f A x B = · · +

con A> 0. Questa trasformazione descrive una dilatazione (o una contrazione se A > 1) e una
traslazione.

Vogliamo notare che le variabili discrete sono un caso particolare delle variabili continue: per
una variabile discreta definita dalle
{ }
k
p , abbiamo una densità di probabilità

(2.73) ( ) ( )
k
k
f x p x k o = · ÷
¿


Come per una variabile casuale discreta, anche per una variabile casuale continua può definirsi
il valore aspettato o valor medio della variabile casuale. In questo caso si pone

(2.74) [ ] ( ) E x x f x dx µ
·
÷·
= = ·
}


Vogliamo ricordare che esistono altri parametri di localizzazione di una variabile casuale, oltre
al valor medio, e cioè:

o la mediana, il valore m per cui
1
( )
2
F m = , cioè il valore della variabile casuale per cui si ha
esattamente la stessa probabilità che il risultato sia maggiore o inferiore ad essa. È ovvia
l’analogia alla mediana introdotta del capitolo 5 come parametro di posizione per
descrivere un insieme di dati.

o la moda, il valore per cui la densità di probabilità ha il massimo assoluto, cioè il valore
verso cui più si addensano i risultati delle ripetizioni dell’esperimento probabilistico
descritto da f(x).


Data una funzione g(x) della variabile casuale x, possiamo calcolare il valore aspettato di g(x)
(detto valor medio di g(x)) come

(2.75) [ ( )] ( ) ( ) E g x g x f x dx
·
÷·
= ·
}


40
Un caso particolare è
2
( ) ( ) g x x µ = ÷ , il cui valore aspettato definisce la varianza della densità
f(x), detta anche varianza di insieme della variabile casuale x o varianza della distribuzione
13



(2.76)
2 2 2
[ ] [( ) ] ( ) ( ) Var x E x x f x dx o µ µ
·
÷·
÷ = ÷ = ÷
}


Se µ e o sono valor medio e deviazione standard della f(x), allora la f’(x), ottenuta dalla
trasformazione (2.72), ha sono valor medio e deviazione standard

(2.77) ' B µ µ = ÷

(2.78) '
A
o
o =

La deviazione standard descrive quanto una densità di probabilità è “stretta” intorno alla
media. La disuguaglianza di Chebyshev dà a questa definizione qualitativa un carattere
probabilistico quantitativo.

Per una variabile casuale x con media µ e deviazione standard o , si ha che

(2.79)
( )
2
1
Probabilità x - k
k
µ o > · s


Ovviamente questa disuguaglianza
14
ha senso per k > 1. Come vedremo, per le più comuni
distribuzioni, Probabilità( x - k ) µ o > · è molto minore di
2
1
k
.

Si possono definire i momenti (rispetto all’origine) di ordine k come

(2.80)
( )
( )
k k
m x f x dx
·
÷·
=
}


e i momenti centrali di ordine k come

(2.81)
( )
( ) ( )
k k
x f x dx µ µ
·
÷·
= ÷
}


Tra i momenti rispetto a 0 e quelli centrali ci sono delle precise relazioni. Per esempio

(2.82)
( ) ( ) ( )
( )
( ) ( ) ( ) ( ) ( )
( )
( ) ( ) ( ) ( ) ( )
( )
( ) ( )
( )
2
2 2 1
3
3 3 1 2 1
2 4
4 4 1 3 1 2 1
3 2
4 6 3
m m
m m m m
m m m m m m
µ
µ
µ
= ÷
= ÷ · +
= ÷ · + ÷


13
In statistica viene anche detta "varianza della popolazione"
14
Il caso limite è la distribuzione costituita da due delte eguali. In tal caso, per k>1, la probabilità è 0.
41


A partire dai momenti di ordine 3 e 4 si definiscono i parametri asimmetria (skewness in
inglese) e curtosi (kurtosis in inglese) come

(2.83)
(3)
3
µ
o
= asimmetria
e
(2.84)
(4)
4
3
µ
o
= ÷ curtosi

Lo “strano” 3 nella definizione della curtosi permette di avere 0 nel caso della gaussiano.

Per una variabile casuale reale si definisce distribuzione cumulativa la funzione

(2.85) ( ) ( ) Prob[variabile casuale x]
x
F x f d ç ç
÷·
= = s
}



Esempi di distribuzioni di variabili casuali continue sono:

a) la distribuzione uniforme in cui la densità di probabilità è

(2.86)
1
per
( )
0 altrove
a x b
b a
f x
¦
s s
¦
÷
¦
=
´
¦
¦
¹


Il valor medio è

(2.87)
2 2 2
1 / 2
2 ( ) 2
b
b
a
a
x b a b a
x dx
b a b a b a
µ
( ÷ +
= = = =
(
÷ ÷ · ÷
¸ ¸
}


e i momenti centrali sono

(2.88) ( )
( ) ( )
1 1
1
( )
1
1 1
( )
( 1)( ) 2 ( 1) ( )
b k k
b
k
k k
k
a
a
b a a b
x dx x
b a k b a k b a
µ µ µ
+ +
+
+
÷ ÷ ÷ (
= ÷ = · ÷ =
(
÷ + ÷ + · ÷
¸ ¸
}


Si nota che per k dispari
( )
0
k
µ = , mentre per k pari

(2.89)
( )
( )
2 ( 1)
k
k
k
b a
k
µ
÷
=
· +


La varianza è quindi

42
(2.90)
2
2 (2)
( )
12
b a
o µ
÷
= =

b) la distribuzione di Gauss o distribuzione normale, con densità

(2.91)
( )
( )
2
2
2
1
( ) ,
2
x
f x e N
µ
o
µ o
t o
÷
÷
= =
·


con valor medio µ e varianza
2
o (spesso si indica semplicemente con ( ) , N µ o ).

Spesso si usano variabili gaussiane normalizzate o “standard”, in cui 0 µ = e 1 o = .

La grande importanza della distribuzione normale è dovuta soprattutto al teorema del limite
centrale. Con esso si dimostra che, se sommiamo N variabili casuali indipendenti, con
distribuzioni anche diverse, ma con varianze dello stesso ordine di grandezza, se N
tende all’infinito, la distribuzione della somma tende a una distribuzione gaussiana
che ha valor medio la somma dei valor medi e varianza la somma delle varianze.

c) la distribuzione di Laplace, con densità

(2.92) ( )
1
; ,
2
x
b
f x b e
b
µ
µ
÷
÷
=

con valor medio µ e varianza 2b
2
. La curtosi è 3. È utile per modellizzare diversi processi reali
con code pesanti.

d) la distribuzione del _
2
, che indica la distribuzione della somma di N variabili gaussiane
normalizzate al quadrato. Ha densità

(2.93)
( ) ( )
2
1
2 2
2 2
/ 2
1
;
2 ( / 2)
N
N
f N e
N
_
_ _
÷ ÷
=
I


Il valore aspettato e la varianza sono rispettivamente N e 2N; il terzo e quarto momento
centrale sono
3
8N µ = e ( )
4
12 4 N N µ = · · + . L’asimmetria è
2
2
N
e la curtosi è
12
N
.

Nella prima figura ci sono le distribuzioni del _
2
per N = 1, 2, 3, 4. Nella seconda sono
confrontate la distribuzione del _
2
con N = 100 e la gaussiana con la stessa media e la
stessa varianza (in rosso la gaussiana).

43

Figura 2-11


Figura 2-12

Talora si usa la distribuzione del
2
_ , ottenuta da questa dividendo la variabile per N.


e) la distribuzione esponenziale. Un caso particolare della distribuzione del
2
_ è la
distribuzione esponenziale. Nel caso generale la distribuzione esponenziale ha densità

(2.94) ( ) ( )
1
x
f x u x e
µ
µ
÷
= · ·

e la distribuzione integrale è

(2.95) ( ) ( ) 1
x
F x u x e
µ
÷
= ÷ ·

il valore aspettato è µ ed è uguale alla deviazione standard.
44
Tale distribuzione si ottiene se sommiamo due variabili gaussiane indipendenti di media
nulla, quadrate, con la stessa varianza
2
G
o . In tal caso si ha
2
2
G
µ o = · .




f) la distribuzione di Rayleigh. Se si fa la radice quadrata della somma dei quadrati di
due variabili gaussiane indipendenti di media nulla e uguale varianza
2
G
o , abbiamo la
distribuzione di Raleigh

(2.96) ( ) ( )
2
2
2
2
G
x
G
x
f x u x e
o
o
÷
= · ·

che ha valor medio
2
G
t
o · e varianza
2
2
2
G
t
o
| |
÷ ·
|
\ .
.


g) la distribuzione di Cauchy, nota in Fisica anche col nome di distribuzione di
distribuzione di Breit-Wigner o di Lorentz, ha la densità

(2.97)
2
1 1
( ; , )
1
f x d
d
x
d
µ
t
µ
= ·
÷
| |
+
|
\ .



È caratterizzata da code molto pesanti e dal fatto che non ha varianza (l'integrale è
divergente). Il valor medio è µ (calcolata con argomenti di simmetria). Per la simmetria, i
momenti centrali di ordine dispari sono nulli. Anche i momenti pari superiori non sono
calcolabili.

Un esempio di esperimento i cui risultati sono distribuiti secondo la distribuzione di
Cauchy è il seguente. Si faccia ruotare un disco in modo che si fermi a caso con
distribuzione dell'angolo uniforme tra 0 e 360 gradi. La tangente di questo angolo è
distribuita secondo Cauchy, con media 0 e parametro d = 1.

Un altro importante caso in cui compare la distribuzione di Cauchy è quello del rapporto
tra due variabili gaussiane a media nulla. Siano x e y due variabili gaussiane con valor medio
nullo, varianze
2
x
o e
2
y
o e coefficiente di correlazione r (per la definizione vedi (2.138)).
Essendo
x
z
y
= , abbiamo

(2.98)
( )
2
2
2 2 2
1
( )
1
x y
x
y x
y
r
f z
z r r
o o
t
o
o o
o
÷ · ·
=
| |
· ÷ · + · ÷
|
|
\ .

45

e, se le due variabili sono scorrelate,

(2.99)
2
2
2
( )
x
y
x
y
f z
z
o
t o
o
o
·
=
+



Se si cerca di fare la media di un campione estratto da una distribuzione di Cauchy, si trova
che comunque si fa crescere della dimensione del campione, la media non converge al
valor medio. Infatti non esistendo la varianza, la disuguaglianza di Chebyshev non
funziona.

In figura è riportata la distribuzione di Cauchy (in rosso) con valor medio nullo e d = 1 , in
confronto con la normale standardizzata (in blu). Si noti la differente “pesantezza” delle
code.


Figura 2-13



h) la distribuzione t di Student (statistica per piccoli campioni).
Supponiamo di avere un campione casuale di dimensione N {x
1
, x
2
,…,x
N
} estratto da una
popolazione normale di media μ e deviazione standard σ (per esempio N misure
indipendenti di una certa grandezza fisica, con errore casuale gaussiano).

Calcoliamo la media e la varianza campionaria (vedi paragrafo 2.3)


1
1
N
i
i
x x
N
=
=
¿
e
( )
2
2
1
1
1
N
i
i
S x x
N
=
= ÷
÷
¿


La variabile
46


(2.100)
/
x
t
S N
µ ÷
=


(analoga alla variabile z) segue la distribuzione t di Student, con N-1 gradi di libertà.

Tale distribuzione è

(2.101)
1
2
2
1
2
( ) 1
2
M
M
x
f x
M M
Mt
+
÷
+ | |
I
|
| |
\ .
= · +
|
| |
\ .
· I
|
\ .




dove M è chiamato "numero dei gradi di libertà); ha media nulla e deviazione standard
2
M
M
o =
÷
.

Per M grande tende a una gaussiana, per M=1 è una distribuzione di Cauchy. È in genere
una distribuzione a campana con code più pesanti di una gaussiana.




2.2.4 Somma di variabili casuali indipendenti e funzione caratteristica

Se abbiamo due variabili casuali indipendenti (vedremo in seguito il significato rigoroso di
questa parola) x e y, definite da due densità di probabilità f(x) e g(y), si dimostra che la loro
somma z = x + y ha densità di probabilità h(z) data dalla convoluzione delle due densità

(2.102) ( ) ( ) ( ) h z f g z d , ,
·
÷·
= ÷ ,
}



Ce ne possiamo convincere considerando che, per il valore di x compreso nell’intervallino
' ' x x x dx s s + , che ha probabilità ( ) f x dx · la distribuzione della somma è ( ) ' g y x ÷ .

Un risultato importante è che in questo caso si ha

(2.103) [ ] [ ] [ ] E z E x E y = +

e

(2.104) [ ] [ ] [ ] Var z Var x Var y = +
47


(la prima è vera anche se le variabili non sono indipendenti).

Quando si ha a che fare con la somma di variabili casuali indipendenti, è particolarmente
comodo introdurre la funzione caratteristica di una distribuzione di probabilità, come

(2.105) ( )
j x
E e
e
e ( u =
¸ ¸


che, nel caso continuo, è

(2.106) ( ) ( )
j x
e f x dx
e
e
·
÷·
u =
}


e nel caso discreto

(2.107) ( )
j k
k
k
e p
e
e u =
¿


Si noti che la funzione caratteristica è la trasformata di Fourier della densità di probabilità (con
una convenzione diversa da quella che abbiamo usato noi nella (2.14); con la nostra
convenzione è la complessa coniugata della trasformata di Fourier). Ricordando le proprietà
della trasformata di Fourier, dalla (2.102) ricaviamo che la funzione caratteristica della
somma di due variabili casuali è data dal prodotto delle due funzioni caratteristiche
delle due variabili.

Consideriamo la funzione caratteristica associata a una variabile gaussiana:

(2.108) ( )
2 2
2 2
2
exp
2
j
e j
o e
µe
o e
e µe
÷ | |
u = = ÷
|
\ .


Se abbiamo la somma di n variabili gaussiane, ciascuna definita da
{ } ,
i i
µ o , abbiamo per la
somma


(2.109) ( )
2 2
exp
2
i
i
i
i
j
e o
e e µ
| | ·
|
u = · ÷
|
|
\ .
¿
¿


da cui deduciamo che la somma ha distribuzione normale con valor medio pari alla somma dei
valor medi e varianza pari alla somma delle varianze.
Se facciamo la media di n variabili gaussiane con eguali parametri ( ) , µ o , ciò equivale a
sommare n variabili con ,
n n
µ o | |
|
\ .
e quindi si ottiene ,
media media
n
o
µ µ o
| |
= =
|
\ .
. Quindi
facendo la media “guadagniamo” una riduzione della deviazione standard di n .

48
La funzione caratteristica della distribuzione di Cauchy di equazione (2.97) è

(2.110) ( )
j d
e
µe e
e
÷
u =


Per n variabili casuali di Cauchy, definite ciascuna da
( ) ,
i i
d µ , troviamo

(2.111) ( )
1 1
exp
n n
i i
i i
j d e e µ e
= =
| |
u = · ÷ ·
|
\ .
¿ ¿


Abbiamo cioè una nuova variabile di Cauchy, con parametri
1 1
,
n n
i i
i i
d µ
= =
| |
|
\ .
¿ ¿
.
Se facciamo la media di n variabili di Cauchy con eguali parametri
( ) , d µ , ciò equivale a
sommare n variabili con ,
d
n n
µ | |
|
\ .
e quindi si ottiene
( ) ,
media media
d d µ µ = = . Quindi facendo la
media otteniamo esattamente la stessa distribuzione.

Altra proprietà interessante della funzione caratteristica è che

(2.112)
( )
0
k
k k
k
d
j m
d
e
e
=
u
= ·

dove
( ) k
m indica il momento non centrale di ordine k (vedi (2.80)).




2.2.5 Distribuzione di una funzione di variabile casuale

Supponiamo di avere una variabile casuale x di densità f
x
(x) e costruiamo la nuova
variabile

(2.113) ( ) y g x =

Ci domandiamo quale sia la densità di probabilità della variabile y.

Nell'ipotesi che la g(x) sia continua e monotona, si ha che, essendo x=g
-1
(y),

(2.114) ( ) ( ) ( )
( )
1
1
y x
d g y
f y f g y
d y
÷
÷

= ·



Se la condizione di monotonicità non è verificata, possiamo dividere la funzione in vari
pezzi monotoni y=g
1
(x), y=g
2
(x),… ciascuno dei quali ammette una soluzione x=g
1
-1
(y),
x=g
2
-1
(y),… allora

49
(2.115) ( ) ( ) ( )
( )
1
1 i
y x i
i
d g y
f y f g y
d y
÷
÷

= ·

¿


Supponiamo che φ(x) sia una densità di probabilità; allora ( ) ( )
x
F x d ¢ ç ç
÷·
= ·
}
è
monotona (non decrescente), senza pezzi costanti. Consideriamo la g(x)=F
-1
(x), anch'essa
monotona crescente e siamo quindi nelle condizioni della (2.114). Inoltre 0≤g
-1
(x)≤1 . Se la
f
x
(x) è uniforme tra 0 e 1, è immediato verificare che f
y
(y)= φ(y).
È questo un semplice modo per generare variabili con densità φ(x) qualsiasi a partire da
una uniforme (facilmente generabile con routine di pseudo-noise): basta calcolarne la
distribuzione integrale e invertirla, ottenendo così la y=g(x) necessaria: se per x si pongono
campioni distribuiti uniformemente, si ottengono per y i campioni voluti.



2.2.6 Variabili casuali multiple e covarianza

Si parla di variabili casuali multiple quando si associa una distribuzione di probabilità a più
variabili (discrete o continue).
Analogamente alle variabili casuali semplici, ad esse è associata:

 (caso discreto) una probabilità per ogni combinazione dei possibili valori delle n
variabili; la somma delle probabilità di tutte le combinazioni è 1

(2.116)
1 2
1 2
1 2
...
1 1 1
... 1
n
n
n
N N N
i i i
i i i
p
= = =
=
¿¿ ¿



 (caso continuo) una densità di probabilità
1 2
( , ,..., )
n
f x x x , il cui integrale, su tutte le n
variabili, è 1

(2.117)
1 2 1 2
... ( , ,..., ) ... 1
n n
f x x x dx dx dx
· · ·
÷· ÷· ÷·
=
} } }


Integrando rispetto ad alcune variabili la funzione “mista”
1 2
( , ,..., )
n
f x x x , tra ÷· e ·,
abbiamo la densità mista delle rimanenti ("densità marginali").

Nel seguito faremo riferimento solo alle variabili casuali continue. Analogamente al caso di una
singola variabile, si può definire il valore aspettato di una qualsiasi funzione g delle n variabili
come

(2.118) | |
1 2 1 2 1 2 1 2
( , ,..., ) ... ( , ,..., ) ( , ,..., ) ...
n n n n
E g x x x g x x x f x x x dx dx dx
· · ·
÷· ÷· ÷·
= ·
} } }



50
Indichiamo
15
con
( )
1 2 1 2
, ,..., | , ,...,
k k k n
f x x x x x x
+ +
la densità di
{ }
1 2
, ,...,
k
x x x condizionata da
{ }
1 2
, ,...,
k k n
x x x
+ +
. Si ha che

(2.119) ( )
( )
( )
1 2
1 2 1 2
1 2
, ,..., ,...,
, ,..., | , ,...,
, ,...,
k n
k k k n
k k n
f x x x x
f x x x x x x
f x x x
+ +
+ +
=

Da questa si ha

(2.120) ( )
( )
( )
1 2
1 2 3
2 3
, ,...,
| , ,...,
, ,...,
n
n
n
f x x x
f x x x x
f x x x
=

e quindi

(2.121) ( ) ( ) ( ) ( ) ( )
1 2 1 2 3 2 3 1
, ,..., | , ,..., | ,..., ... |
n n n n n n
f x x x f x x x x f x x x f x x f x
÷
= · · · ·


Diciamo che due variabili x e y sono stocasticamente indipendenti (o statisticamente
indipendenti, o, semplicemente, indipendenti) se tutta l'informazione su x è contenuta nella
marginale f
x
e tutta l'informazione su y nella marginale f
y
.

Se le n variabili casuali { }
i
x sono indipendenti, si ha

(2.122) ( ) ( )
1 2
1
, ,...,
n
n i i
i
f x x x f x
=
=
[


e per la distribuzione integrale

(2.123) ( ) ( )
1 2
1
, ,...,
n
n i i
i
F x x x F x
=
=
[


Prendiamo il semplice caso in cui la funzione g sia la combinazione lineare di tutte le variabili
x
i
,
1
n
i i
i
y a x
=
=
¿
,

(2.124) | | | |
1 2 1 2
1 1 1
... ( , ,..., ) ...
n n n
i i i i n n i i
i i i
E y E a x a x f x x x dx dx dx a E x
· · ·
= = =
÷· ÷· ÷·
(
= = · =
(
¸ ¸
¿ ¿ ¿
} } }


quindi il valore aspettato della combinazione lineare di n variabili casuali (anche non
indipendenti) è pari alla stessa combinazione lineare dei valori aspettati (come potevamo
intuire, data la linearità dell'operatore E[.] "valore aspettato").


15
Attenzione alla notazione: per semplificarla, spesso qui indichiamo con f funzioni di densità che sono in
genere diverse, dipendentemente dagli argomenti. In effetti ciascuna andrebbe indicata in modo differente
(per esempio con opportuni indici).
51
Consideriamo per semplicità il caso in cui n sia eguale a 2 e chiamiamo x e y le due variabili. Le
"densità marginali" sono le funzioni

(2.125) ( ) ( , )
x
f x f x y dy
·
÷·
=
}


e

(2.126) ( ) ( , )
y
f y f x y dx
·
÷·
=
}


Queste due funzioni sono due densità di probabilità che possono vedersi come le densità di
probabilità associate alle due variabili x e y, indipendentemente l'una dall'altra; cioè, per
esempio, la prima descrive le qualità statistiche della variabile x, se non si sa niente di y.

È immediato verificare che

(2.127)
| | ( , ) ( )
x
E x x f x y dx dy x f x dx
· · ·
÷· ÷· ÷·
= · = ·
} } }



e analogamente

(2.128)
| | ( )
y
E y y f y dy
·
÷·
= ·
}


Vediamo ora il valore aspettato del prodotto. In generale

(2.129)
| | ( ) , E x y x y f x y dx dy
· ·
÷· ÷·
· = · ·
} }


Se x e y sono indipendenti, si ha

(2.130)
| | ( ) ( ) | | | |
x y
E x y f x dx f y dy E x E y
· ·
÷· ÷·
· = = ·
} }



Torniamo ora alla combinazione lineare
1
n
i i
i
y a x
=
=
¿
. Siano
| |
i i
E x µ = e
2
i
o le varianze delle
n variabili x
i
. Abbiamo visto che | |
1
n
y i i
i
E y a µ µ
=
= =
¿
. Sviluppiamo ora l’espressione della
varianza di y. Si ha

(2.131)
( ) ( )( )
( )( )
2
2
1 1 1
1 1
n n n
y i i i i j i i j j
i i j
n n
i j i i j j
i j
E a x E a a x x
a a E x x
o µ µ µ
µ µ
= = =
= =
(
(
| |
= ÷ = ÷ ÷ = (
( |
\ . ( ¸ ¸
¸ ¸
(
= ÷ ÷
¸ ¸
¿ ¿¿
¿¿



52
Indichiamo ora col termine covarianza delle variabili x
i
e x
j
il valore

(2.132) ( )( )
i j i i j j i j i j
E x x E x x o µ µ µ µ
( ( = ÷ ÷ = ÷
¸ ¸
¸ ¸


Si noti che
2
i i i
o o

= . Dalla (2.130) è immediato dimostrare che se x
i
e x
j
sono indipendenti
la loro covarianza è nulla; altrimenti può essere positiva o negativa. Se due variabili hanno
covarianza nulla, non è detto in genere che siano indipendenti.

Se quindi le n variabili x
i
sono indipendenti, la varianza della combinazione lineare si
riduce a

(2.133)
2 2 2
1
n
y i i
i
a o o
=
=
¿


Se abbiamo n variabili indipendenti con la stessa varianza
2
o , abbiamo che la varianza della
somma è
2
n o · e la varianza della media è
2
n
o
. La deviazione standard sulla media è

(2.134)
y
n
o
o =


Tutte le covarianze delle n variabili x
i
formano una matrice quadrata

(2.135)
11 1
1
n
n nn
C
o o
o o
| |
|
=
|
|
\ .


detta matrice di covarianza; sulla diagonale ha le varianze delle n variabili. Se le x
i
sono
indipendenti, la matrice è diagonale.

Possiamo quindi esprimere la varianza di y come

(2.136)
2
1 1
n n
y i j i j
i j
a a o o

= =
=
¿¿



Se le x
i
sono indipendenti, otteniamo il risultato, già anticipato,

(2.137)
2 2 2
1
n
y i i
i
a o o
=
=
¿


Date due variabili x e y, il valore della covarianza
x y
o

dipende anche dalle varianze di x e y.
Per indicare il tipo di dipendenza evidenziata da
x y
o

in una forma indipendente dalla varianza
53
di x e y (e da eventuali fattori di amplificazione), si è introdotto un parametro adimensionale, il
coefficiente di correlazione

(2.138)
x y
x y
o
µ
o o
=

Ricordiamo che la disuguaglianza di Schwartz (o di Cauchy-Schwartz) è

(2.139) ( ) ( ) ( ) ( )
2
2 2
x t y t dt x t dt y t dt
· · ·
÷· ÷· ÷·
· · s ·
} } }


e, nel discreto,

(2.140)
2
2 2
i i i i
i i i
x y x y · s ·
¿ ¿ ¿



L’uguaglianza si ha se y è proporzionale a x.

Questo risultato, che utilizzeremo più volte in questo corso, può scriversi anche

(2.141) | |
2 2
E x y E x E y ( ( · s ·
¸ ¸ ¸ ¸


Quindi µ , calcolato nella (2.138), è un numero compreso tra -1 e 1.

Introduciamo ora la distribuzione gaussiana per variabili casuali multiple.

Se le variabili sono indipendenti, a media nulla e con la stessa varianza, allora

(2.142) ( )
( )
2 2 2
1 2
2
...
2
1 2
2
1
, ,...,
2
n
x x x
n n
n
f x x x e
o
t o
+ + +
÷
= ·
·


Nel caso di due variabili abbiamo

(2.143)
( )
( )
( )( ) ( )
2
2
2 2 2
2
2
1 1
( , ) exp
2 1
2 1
x y y
x
x x y y
x y
x y y
x
f x y
µ µ µ µ
µ
o o o o µ
to o µ
( | |
÷ ÷ ÷
÷
( |
= ÷ · ÷ +
( |
÷
÷
\ . ¸ ¸



dove µ indica il coefficiente di correlazione tra le due variabili.

Nel caso generale (ma con i valori aspettati delle variabili tutti nulli, situazione a cui comunque
si arriva con una banale trasformazione di variabile) la densità congiunta ha la forma

54
(2.144)
( )
1 2
, 1
, ,..., exp
n
n ij i j
i j
f x x x k a x x
=
| |
= · ÷ · ·
|
\ .
¿

ovvero, essendo C la matrice della covarianza e C
-1
la sua inversa,

(2.145) ( )
( )
1
1 2
1
exp
2
, ,...,
n
n
f x x x
t
÷
| |
÷ ·
|
\ .
=
T
x C x
2 C


Si dimostra facilmente dalla (2.145) che, nel caso normale, se le variabili sono scorrelate (cioè
se la matrice C ha tutti gli elementi nulli a parte la diagonale), sono indipendenti. Infatti, se

(2.146)
2
1
2
2
2
0 ... 0
0 ... 0
. . . .
0 0 ...
n
o
o
o
| |
|
|
=
|
|
|
\ .
C

e quindi

(2.147)
2
1
2
2
2
1
0 ... 0
1
0 ... 0
. . . .
1
0 0 ...
n
o
o
o
| |
|
|
|
|
=
|
|
|
|
|
\ .
-1
C


e la (2.145) diventa

(2.148) ( )
( )
2
1
2
1 2
1
1
exp
exp
2
2
, ,...,
i
n
i
n
n
i
i
x
f x x x
o
t o
t
÷
=
| |
| |
÷
÷ · |
|
·
\ . \ .
= =
·
[
T
x C x
2
2 C




Come abbiamo già detto, nel caso generale, se è vero che due variabili indipendenti sono
scorrelate, non è vero il viceversa. Un esempio è quello in cui esista una relazione
deterministica tra x e y del tipo

(2.149)
( )
y g x =

55
(e quindi le variabili non sono assolutamente indipendenti) e la distribuzione di x sia pari (
( ) ( ) f x f x = ÷ ). In tal caso è facile dimostrare che la correlazione è nulla.





56
2.3 Statistica

Il calcolo delle probabilità dà gli strumenti per descrivere teoricamente un fenomeno la cui
occorrenza o alcuni suoi aspetti sono basati sul caso.
La statistica ci dà gli strumenti per acquisire una conoscenza sperimentale di tale fenomeno.

In effetti la statistica si è sviluppata per descrivere i caratteri di una popolazione a partire
dall’osservazione di un sotto-insieme dei suoi “individui”, detto campione.

Nelle scienze sperimentali definiamo campione una successione di osservazioni sperimentali
(o misure)
{ }
1, 2
,...,
n
x x x relative ad un dato fenomeno. Queste sono rappresentative del
fenomeno, di cui si suppone esista una distribuzione teorica (che è analoga alla distribuzione
della popolazione). Si fa in genere sotto l’ipotesi di stazionarietà del fenomeno in osservazione,
cioè sotto l’ipotesi che il fenomeno non cambi nel tempo, a parte la presenza di errori
sperimentali casuali.

Il campione viene quindi analizzato con tecniche statistiche, che sono classificate in statistica
descrittiva e statistica inferenziale.

2.3.1 L’inferenza statistica - Stima dei parametri

L’inferenza è il processo con cui, a partire da dati sperimentali, valutiamo (“stimiamo”) il
valore di uno o più parametri di nostro interesse, oppure decidiamo sulla correttezza di certe
ipotesi. Se i dati sperimentali sono estratti come campione da una popolazione o se essi sono
affetti da errori casuali, parliamo di inferenza statistica.

Nelle scienze sperimentali esistono due distinte procedure sperimentali:

 gli esperimenti controllati (o “di laboratorio”; qualcuno li chiama “galileiani”), in cui
fissiamo alcuni parametri sperimentali e ne misuriamo altri. Per esempio in un
esperimento sulla caduta dei gravi, scegliamo un luogo geografico e una altezza da cui
far cadere un oggetto e misurarne il tempo che ci mette a raggiungere il suolo. In
questo caso usiamo l’inferenza statistica a causa delle incertezze di misura.

 gli esperimenti osservativi, in cui gli oggetti della sperimentazione non sono sotto il
nostro controllo e quindi noi possiamo limitarci a misurarne (“osservarne”)
caratteristiche “campionarie” ed inferire leggi tra di esse. È questo per esempio il caso
dell’astrofisica (c’è qualche difficoltà a portare in laboratorio una stella e a controllarne
qualche caratteristica, per esempio la massa). In questo caso usiamo l’inferenza
statistica sia perché operiamo su un campione di una popolazione, sia perché sono
presenti incertezze di misura, sia perché ci può essere l’influenza di altri fattori non
sotto il nostro controllo).

In generale, supponiamo di dover stimare un parametro u da un campione sperimentale
{ }
1, 2
,...,
n
x x x , ottenendo la stima
ˆ
u (d’ora in poi indicheremo con la cuspide “^” il valore
“stimato” di un parametro). Realizziamo ciò tramite una funzione f, detta anche “statistica”
(statistic in Inglese)

57
(2.150)
( )
1, 2
ˆ
,...,
n
f x x x u =

In linea di principio, la funzione f può essere qualsiasi: il problema è avere un buon
“stimatore” (ancora meglio, lo stimatore “ottimo”).

Il valore stimato
ˆ
u può essere visto come una variabile casuale. Alcune “qualità” auspicabili di
uno stimatore sono le seguenti:

 la consistenza, cioè se, al tendere ad infinito della dimensione n del campione, il
valore della stima tende al valore del parametro. Questa è, ovviamente, una qualità
fondamentale.
 la correttezza, o assenza di distorsione (bias in inglese), se
ˆ
E u u
(
=
¸ ¸
.
 l’efficienza, cioè quanto rapidamente
ˆ
u converge a u al crescere di n.; è, cioè, per una
data dimensione del campione, tanto maggiore quanto minore è la deviazione standard
dello stimatore.
 la robustezza, cioè quanto le qualità di uno stimatore sono indipendenti dalla
distribuzione dei dati a cui è applicato.
.

Notiamo che la “correttezza” è analoga all’accuratezza delle misure fisiche, mentre
l’“efficienza” è analoga alla precisione

Per “costruire” buoni stimatori si utilizzano vari metodi, per esempio il metodo dei minimi
quadrati, il metodo della massima verosimiglianza o la stima bayesiana.
Vedremo brevemente in cosa consistono.

2.3.2 Il Principio dei Minimi Quadrati (e del minimo χ
2
)

Questo principio per costruire stimatori fu introdotto da Gauss per risolvere il problema della
stima dei parametri orbitali del pianetino Cerere (scoperto nel 1801 a Palermo da Piazzi, ma
poi “perso”), a partire da dati con errori casuali.

Supponiamo di avere n osservazioni { }
1 2
, ,...
n
x x x di una grandezza g dipendente da un
insieme di parametri { }
1 2
, ,...,
m
u u u u = e siano ciascuna di esse

(2.151)
( )
;
i i
x g i u c = +

dove
i
c sono errori di misura casuali. Lo stimatore ai minimi quadrati di u è quella funzione
( )
1 2
, ,...
n
x x x u u = tale che sia minima la somma

(2.152)
( ) ( )
2
2
1 1
;
n n
i i
i i
x g i c u
= =
= ÷
¿ ¿


detta “costo”. Ovviamente questo principio si può generalizzare a una diversa forma della
funzione costo
58

(2.153) ( )
1
n
i
i
| c
=
¿


Con la forma quadratica di (2.152), i calcoli e i risultati sono particolarmente eleganti, ma in
alcuni casi sono più utili forme diverse; per esempio con

(2.154) ( )
2
| |
n
i i
| c c
>
=

si fa “pagare” di più un singolo scostamento grande che tanti piccoli.

La soluzione del problema può farsi anche per via numerica, calcolando la (2.152) (o l’analoga
con una differente funzione di costo) su un opportuno reticolato nello spazio del vettore dei
parametri.

Si noti che questo problema può essere visto anche come la ricerca del “best fit” delle
osservazioni { }
1 2
, ,...
n
x x x con la funzione g al variare dei parametri { }
1 2
, ,...,
m
u u u .


Un diverso modo di porre il problema, che ci sarà molto utile nel seguito, è il seguente:

Siano date n+1 variabili casuali { }
1 2
, , ,...
n
y x x x e si conosca la densità di probabilità
( )
1
, ,...
n
f y x x . Si voglia trovare lo stimatore
( )
1 2
, ,...
n
g x x x di y conoscendo le x, tale che sia
minimo l’errore quadratico

(2.155) ( ) ( )
2
2
1 2
, ,...
n
E y g x x x c
(
= ÷
¸ ¸


Si dimostra che

(2.156) ( ) | | ( )
1 2 1 2 0 1 2
, ,... | , ,... | , ,...
n n n
g x x x E y x x x y f x x x x dy
·
÷·
= = · ·
}


Il problema si semplifica notevolmente se si impone che la g sia una funzione lineare

(2.157) ( )
1 2 1 1 2 2
, ,... ...
n n n
g x x x a x a x a x = · + · + + ·

In tal caso si trova che i valori delle costanti
i
a che rendono minimo l’errore quadratico
2
c
dato dalla (2.155), sono tali che ( )
1 1 2 2
...
n n
y a x a x a x ÷ · + · + + · sia ortogonale a { }
i
x
(Principio di Ortogonalità), ovvero

(2.158) ( ) ( )
1 1 2 2
... 0
n n i
E y a x a x a x x ( ÷ · + · + + · · =
¸ ¸


per tutti gli i. Infatti per rendere minimo
2
c si deve avere, per tutti gli i,

59
(2.159)
( ) ( )
2
2
1 1 2 2
...
0
n n
i i
E y a x a x a x
a a
c
(
c ÷ · + · + + ·
c
¸ ¸
= =
c c


Per la linearità dell’operatore E, abbiamo che la derivata del valore aspettato è uguale al valore
aspettato della derivata e quindi

(2.160) ( ) ( )
2
1 1 2 2
2 ... 0
n n i
i
E y a x a x a x x
a
c c
( = ÷ · ÷ · + · + + · · =
¸ ¸
c


da cui si deduce la (2.158).

Ora, posto

(2.161)
ij i j
R E x x ( = ·
¸ ¸


e

(2.162) | |
0i i
R E y x = ·

(ovviamente la matrice
ij
R è simmetrica) abbiamo che il sistema (2.158) si può scrivere come

(2.163)
11 1 12 2 1 01
21 1 22 2 2 02
1 1 2 2 0
...
...
...
...
n n
n n
n n nn n n
R a R a R a R
R a R a R a R
R a R a R a R
· + · + + · = ¦
¦
· + · + + · =
¦
´
¦
¦
· + · + + · =
¹


Questa è una conseguenza della felice scelta di una funzione di costo quadratica.

Nel caso in cui le { }
1 2
, , ,...
n
y x x x sono normali miste, si dimostra che lo stimatore ottimo è
lineare del tipo (2.157).

Il principio dei minimi quadrati si applica quando gli “errori di misura” hanno la stessa
varianza per tutte le osservazioni. Quando, come è spesso, non è così, il principio si
generalizza al principio del minimo χ
2
(che deriva dal principio della massima
verosimiglianza - vedi in seguito), dove il χ
2
è la somma dei quadrati degli errori
normalizzati con le proprie deviazioni standard.



2.3.3 Il Principio della Massima Verosimiglianza

Supponiamo di osservare un campione { }
1 2
, ,...
n
x x x estratto, in modo che i singoli elementi
siano indipendenti, da una popolazione descritta da

60
- (caso discreto) una distribuzione di probabilità { }
i
P

- (caso continuo) una densità di probabilità ( ) f x

Siano nei due casi rispettivamente la distribuzione di probabilità o la densità di probabilità note
a parte un parametro u che vogliamo stimare dal campione osservato.

Definiamo funzione di verosimiglianza (likelihood), nel caso discreto,

(2.164) ( ) ( )
1 2
; , ,... |
n i
i
L x x x P x u u =
[


e nel caso continuo

(2.165) ( ) ( )
1 2
; , ,... |
n i
i
L x x x f x u u =
[


La ( )
1 2
; , ,...
n
L x x x u , se le { }
1 2
, ,...
n
x x x sono prese come variabili e u è un parametro, è una
distribuzione di probabilità (corretta solo le { }
1 2
, ,...
n
x x x sono indipendenti). Come funzione
di u ed essendo { }
1 2
, ,...
n
x x x risultati dell’esperimento (il campione), ovviamente no.

Una molto diffusa tecnica per costruire uno stimatore del parametro u consiste nel
massimizzare l’espressione della verosimiglianza. La distribuzione col parametro u così
determinato è quella con la massima probabilità condizionata dall’aver prodotto il campione
osservato e quindi il più verosimile.
Gli stimatori costruiti con questo metodo sono sempre consistenti, ma possono essere distorti.

Poiché la ( ) L u è sempre positiva, se ne può prendere il logaritmo

(2.166) ( ) ( ) ( )
log l L u u =

e massimizzare questa nuova funzione che spesso è più semplice, ottenendo ovviamente lo
stesso risultato.

Supponiamo che il parametro u sia il valore aspettato delle
i
x e quindi le ( ) |
i
f x u siano
normali, con parametri
( ) ,
i
u o . La verosimiglianza è

(2.167)
( )
( )
( )
( )
2
1 2 2
2
2
2
1
; , ,... exp
2 2
1 1
exp
2
2
i
n
i
i i
i
n
i
i i i
x
L x x x
x
u
u
o t o
u
o o
t
| |
÷
= ÷ = |
|
·
\ .
| |
| |
÷
|
= · ÷ |
| |
\ .
\ .
[
[ ¿


61
Si vede che massimizzare la verosimiglianza equivale a minimizzare
( )
2
2
2
i
i
i
x u
o
÷
¿
(la parte
fuori dell’esponenziale è inessenziale per la massimizzazione), quindi, se le
i
o sono tutte
eguali, il criterio della massima verosimiglianza equivale a quello dei minimi quadrati. Lo
stimatore in questo caso non è altro che

(2.168)
1
1
n
i
i
x
n
u
=
= ·
¿


Se le
i
o non sono tutte eguali, il massimo di L nella (2.167) si ha per

(2.169)
( )
2
2
2
0
i
i
i
x u
o
u
| |
÷
c |
|
\ .
=
c
¿


da cui

(2.170)
( )
2
0
i
i
i
x u
o
÷
=
¿


e quindi

(2.171)
2
1
2
1
1
n
i
i
i
n
i
i
x
o
u
o
=
=
=
¿
¿


cioè la migliore stima di u , secondo il criterio della massima verosimiglianza, si ha con una
media pesata (o ponderata)

(2.172)
1
n
i i
i
a x u
=
= ·
¿


con

(2.173)
2
2
1
1
1
i
i n
i i
a
o
o
=
=
¿





62
2.3.4 La Stima Bayesiana

Ricordiamo brevemente il teorema di Bayes.

Supponiamo di avere un evento A che può essere causato da uno ed uno solo di N eventi B
1
,
B
2
,…B
N
, mutuamente esclusivi. Supponiamo di conoscere le N probabilità condizionate
P(A|B
i
) che capiti A se è capitato B
i
e le N probabilità P(B
i
) .

Se osserviamo A, possiamo chiederci quale degli N eventi B
i
lo ha causato, o meglio quale è
la probabilità che è accaduto B
i
avendo osservato A.
Si dimostra che (Teorema di Bayes)

(2.174)
1
( ) ( | )
( | )
( ) ( | )
i i
i N
k k
k
P B P A B
P B A
P B P A B
=
·
=
·
¿


Si noti che, con questa relazione, si passa dalle probabilità P(A|B
i
) alle P(B
i
|A) , cioè
dall'informazione sull'effetto delle B
i
su A, tramite anche le P(B
i
), a "inferire" sulle cause
dell'evento osservato A.

Il teorema di Bayes, nel caso di una variabile casuale continua, diventa

(2.175)
( )
1 0
1 0
( | ) ( )
( | )
| ( )
f y x f x
f x y
f y x f x dx
·
÷·
·
=
· ·
}


dove f
0
è la distribuzione della variabile x e f
1
la distribuzione condizionale di y dato x.



Vediamo ora come si costruisce uno stimatore bayesiano.
Supponiamo che il parametro u da stimare si possa considerare, prima di eseguire
l’esperimento statistico, una variabile casuale definita da una certa densità di probabilità a
priori ( ) f
u
u . Allora ( ) | f x u è la densità di probabilità condizionata di x dato u e possiamo
scrivere

(2.176) ( ) ( ) ( )
1 2 1 2
, ,... , , ,... |
n n
f x x x f x x x f
u
u u u = ·

essendo { }
1 2
, ,...
n
x x x il campione, e calcolare la marginale

(2.177) ( ) ( )
( )
1 2 1 2
, ,... , ,... ,
n n
dom
f x x x f x x x d
u
u u = ·
}


Ricaviamo quindi col teorema di Bayes

63
(2.178) ( )
( )
( )
( ) ( )
( )
1 2 1 2
1 2
1 2 1 2
, ,... , , ,... |
| , ,...
, ,... , ,...
n n
n
n n
f x x x f x x x f
f x x x
f x x x f x x x
u
u u u
u
·
= =

ottenendo così lo stimatore, come

(2.179) ( )
1 2
| , ,...
n
E f x x x u u = (
¸ ¸


Facciamo un esempio. Abbia il parametro u da stimare una densità a priori normale

(2.180) ( ) ( )
0 0
, f N
u
u µ o =

…. [pag 258 Pap III]

La stima bayesiana integra informazioni a priori sulla grandezza da stimare e osservazioni
(misure sperimentali), in modo da utilizzare al meglio tutte le informazioni disponibili.

Si noti che le informazioni a priori possono essere ricavate anche da misure precedenti; esse
sono condensate nella distribuzione a priori sulla grandezza in esame. Da questa e dal
risultato delle misure cambia lo stato di informazione, che è condensato nella distribuzione a
posteriori. La teoria della stima bayesiana indica il modo di calcolarla.

Si può quindi utilizzare quest'ultima come distribuzione a priori per successive misure.

Se non si sa nulla "a priori", a parte vagamente il possibile intervallo della grandezza, si
suppone una distribuzione a priori uniforme nell'intervallo. Ma in questo caso questa stima è
meno interessante.


2.3.5 Stima del valor medio

Supponiamo di dover eseguire la misura di una grandezza fisica. Facciamo ciò eseguendo una
certa procedura sperimentale e la ripetiamo più volte. Partendo dai risultati di queste
operazioni ripetute, ci possiamo chiedere:

o quale è il valore vero della misura della grandezza in esame ?
o quale è l’incertezza del valore che forniamo ?
o quale è l’intervallo di fiducia, cioè l’intervallo, relativo ad una certa probabilità, che
possiamo dire contenga il valore vero, con quella probabilità ?

Intuitivamente sappiamo che un buon stimatore del “valore vero” di un misurando (in
linguaggio statistico, il “valore aspettato”), in presenza di errori casuali (e quindi a media
nulla
16
), è la media dei risultati di successive misure. Ora possiamo chiederci: è questo un
buon stimatore ? Verifichiamone la correttezza:


16
Se il valor medio degli errori non fosse nullo, tale valore sarebbe considerato un errore sistematico.
64
(2.181) | |
1 1
1 1
n n
i i
i i
E x E x E x
n n
µ
= =
(
(
= = =
(
¸ ¸
¸ ¸
¿ ¿


quindi, come speravamo è corretto (e quindi anche consistente). Non discutiamo qui altre
qualità (alcune delle quali dipendono dalla distribuzione degli errori casuali, che non è detto
che siano sempre gaussiani).

Per l’incertezza sulla media, (vedi che, se la rappresentiamo con la deviazione standard,
dall’eq.uazione (2.134) , è
x
x
n
o
o = .

Se stabiliamo una probabilità ¢ , che chiamiamo il livello di fiducia o livello di confidenza,
quale è, a partire dalle nostre misure, l’intervallo (a,b) (detto intervallo di confidenza) entro
cui sta il valore vero ?
Supponiamo che i nostri errori siano gaussiani e che conosciamo la loro deviazione standard
x
o . Allora, trovato con le tavole il valore z della variabile standardizzata che corrisponde ad un
intervallo simmetrico di probabilità ¢ , diciamo che l’intervallo relativo al livello di fiducia ¢ è

(2.182)
( )
x x
x z x z o o ÷ · , + ·

Nel caso che la distribuzione non sia gaussiana, se il numero di misure è abbastanza elevato,
per il teorema del limite centrale questa formula è una buona approssimazione.

Se la deviazione standard non è nota, la si può stimare (si veda il prossimo paragrafo), ma in
questo caso il calcolo dell’intervallo di fiducia è più complesso (occorre introdurre la
distribuzione t di Student; è questa una distribuzione con un parametro detto numero dei gradi
di libertà, che “parte” da quella di Cauchy e “arriva” asintoticamente a quella di Gauss);
tuttavia, se il campione è abbastanza numeroso la formula che abbiamo dato è una buona
approssimazione.

Una volta stimato l’intervallo di confidenza (dato un livello di fiducia di nostra scelta),
possiamo decidere se i nostri risultati sperimentali sono compatibili con una aspettativa teorica
(a priori). Se il valore teorico è entro l’intervallo di fiducia, allora diciamo che le nostre misure
sono compatibili con esso, o anche che l’esperimento conferma la teoria, altrimenti lo
dobbiamo escludere (e dobbiamo cambiare teoria o correggere errori sperimentali; c’è anche
l’eventualità che siamo di fronte a una fluttuazione statistica: in questo caso se ripetiamo
l’esperimento dovremmo avere risultati compatibili.

Nota: Il livello di fiducia indica quanto siamo al sicuro da inevitabili fluttuazioni. Porre il
livello di fiducia p per esempio a 0.95 significa che questa è la probabilità di non essere tratti in
errore dalle fluttuazioni: ma con questo livello di fiducia il 5 % degli sperimentatori che
operano correttamente daranno il risultato sbagliato. Ovviamente miglioriamo le cose
alzando il livello di fiducia p, per esempio, a 0.99: ma in questo caso nell’ 1 % dei casi dei
buoni sperimentatori daranno dei risultati errati. Se si ripete l’esperimento però, le cose
migliorano: la probabilità di riavere la fluttuazione ingannevole due volte di seguito è molto
bassa (in genere inferiore a
2
1 (1 ) p ( ÷ ÷
¸ ¸
).

65
Il livello di fiducia è un parametro che qualifica probabilisticamente l’incertezza di una
misura. Una misura viene quindi descritta da tre numeri: il valore stimato, l’incertezza
su tale valore, che determina un intervallo, e il livello di fiducia che associa una
probabilità a questo intervallo.

Attenzione ! spesso anche il valore teorico ha un’incertezza. In tal caso dobbiamo calcolare gli
intervalli di confidenza sia per il valore teorico (v
T
) che per il valore sperimentale (v
S
). In
effetti la cosa si semplifica se le due incertezze sono entrambe assimilabili a due deviazioni
standard (di distribuzioni gaussiane). Allora possiamo costruire la differenza d = v
S
– v
T
.
Nell’ipotesi che la teoria sia in accordo con l’esperimento, ci aspetteremmo d = 0, con una
varianza pari alla somma delle due varianze. Quindi, dato il nostro livello di fiducia, possiamo
costruirci l’intervallo di fiducia (che sarà simmetrico rispetto a 0): se il d trovato è dentro
questo intervallo, allora la teoria è in accordo con l’esperimento, altrimenti no.

2.3.6 Stima della varianza

Nel capitolo 5 abbiamo dato questa definizione di varianza campionaria

(2.183)
2
2
1
1
( )
n
i
i
x x
n
o
=
= ÷
¿


ma è questa una buon stimatore della varianza della popolazione da cui il campione {x
i
} è
estratto ? Prendiamone il valore aspettato

(2.184)
( )
( )
( ) { }
( ) ( )
( ) ( )
2 2
1 1
2
2
1 1 1
1 1
1
2
n n
i i
i i
n n n
i i
i i i
E x x E x x
n n
E x x x x
n
µ µ
µ µ µ µ
= =
= = =
( (
÷ = ÷ ÷ ÷ =
( (
¸ ¸ ¸ ¸
(
= ÷ ÷ · ÷ ÷ + ÷
(
¸ ¸
¿ ¿
¿ ¿ ¿



ora per il termine misto si ha

(2.185) ( )
( ) ( )
( )
( )
2
1 1
2 2 2
n n
i i
i i
x x x x n x µ µ µ µ µ
= =
· ÷ ÷ = · ÷ · ÷ = · · ÷
¿ ¿


e quindi, ricordando che la varianza sulla media è n volte minore della varianza sul singolo,

(2.186)
( )
( )
( )
2
2 2
2
2 2
1 1
1 1 1
n n
i i
i i
n
E x x E x x
n n n n
o
µ µ o o
= =
÷ ( (
÷ = ÷ ÷ ÷ = ÷ = ·
( (
¸ ¸ ¸ ¸
¿ ¿


Come si vede il valore aspettato dello stimatore del capitolo 5 non è la varianza della
popolazione. Quindi questo stimatore è distorto, anche se per grandi valori di n, la distorsione
è molto piccola. Esso dà mediamente un valore un po’ più piccolo di quello vero. Preferiamo
perciò, come stimatore della varianza, il seguente

66
(2.187)
2 2
1
1
ˆ ( )
1
n
i
i
x x
n
o
=
= ÷
÷
¿


che è corretto (“unbiased”, in inglese).

Se conosciamo il valore aspettato µ , lo stimatore

(2.188)
2 2
1
1
ˆ ( )
n
i
i
x
n
o µ
=
= ÷
¿


è corretto.

Il calcolo della varianza sulla varianza campionaria è piuttosto complicato. Diamo qui, per
riferimento, il risultato

(2.189)
2
2 (4) 4
ˆ
1 3
1
n
n n
o
o µ o
÷ | |
= ÷
|
÷
\ .


dove
(4)
µ è il momento centrale del quarto ordine. Se la distribuzione è gaussiana, si ha

(2.190)
2
4
2
ˆ
2
1 n
o
o
o
·
=
÷


e la deviazione standard (che può essere presa come “incertezza” nella stima della varianza)

(2.191)
2
2
ˆ
2
1 n
o
o o = ·
÷


L’incertezza relativa sulla varianza è quindi
2
1 n ÷
e, usando la solita regola per la
propagazione dell’incertezza percentuale, l’incertezza relativa sulla deviazione standard è la
metà della precedente, cioè
( )
1
2 1 n ÷
.


2.3.7 Esempi di stima ai minimi quadrati: stima dei parametri di una
retta sperimentale (“fit lineare”)

In un grafico che rappresenta punti sperimentali che collegano due parametri con dei punti
allineati affetti da errori casuali (per esempio la misura del periodo al quadrato (T
2
) e la misura
della massa appesa (M) nell’esperimento della molla), si vogliano stimare i parametri della retta
che meglio li descrive e valutare l’incertezza su di essi.

È questo il più semplice caso di “fit” di dati sperimentali ed è detto il problema del fit lineare.

67
Nel caso più generale, il problema è quello di trovare i parametri di una funzione di un certo
tipo in modo da approssimare al meglio i dati sperimentali. Gauss, che doveva trovare i
parametri orbitali di un asteroide a partire dalle osservazioni, introdusse, per questo tipo di
problemi, il principio dei minimi quadrati.
Limitandoci al nostro semplice caso lineare. Supponendo che tutte le misure abbiano la stessa
incertezza, esso stabilisce che la migliore retta y m x q = · + è quella in cui la somma dei
quadrati tra i valori sperimentali e quelli della retta sia minima.

Supponiamo di avere le n coppie di misure (x
1
,y
1
), (x
2
,y
2
), …, (x
n
,y
n
), dove le misure x hanno
errore trascurabile e le misure y hanno errore gaussiano con media 0 e deviazione standard o ;
per ciascuna di queste coppie scriviamo l’equazione

(2.192)
i i i
y m x q c = · + +

dove
i
c è l’errore sulla misura
i
y . La somma dei quadrati degli errori è

(2.193) ( )
2
2 2
1 1
n n
i i i
i i
n y m x q c c
= =
· = = ÷ · ÷
¿ ¿



imponiamo quindi le condizioni per il minimo (annullamento della derivata prima)


2
0
m
c c
=
c
e
2
0
q
c c
=
c


e risolviamo il sistema. Si trova per la stima di m

(2.194)
2
2
ˆ
ˆ
x y
x y x y
m
x x
o

· ÷ ·
= =
A
÷


dove


1
1
n
i i
i
x y x y
n
=
· =
¿

1
1
n
i
i
x x
n
=
=
¿

1
1
n
i
i
y y
n
=
=
¿

2 2
1
1
n
i
i
x x
n
=
=
¿


Notare che il numeratore è la covarianza campionaria di x e y ; il denominatore
2
2
x x A = ÷ ,
detto braccio, ha la forma di una varianza campionaria, anche se in effetti non lo è, perché x
non è una variabile casuale (sono valori scelti da noi): essa comunque misura la “larghezza”
dell’insieme dei dati x. Quindi, come è intuitivo, più è larga la base dei dati x, migliore è la
stima della pendenza della retta.

Per ottenere la stima di q facciamo

(2.195) ˆ ˆ q y m x = ÷ ·


Per le incertezze, in forma di deviazione standard, abbiamo
68

(2.196)
m
n
o
o =
· A


e

(2.197)
2
q m
x o o = ·

Attenzione ! queste formule sono ricavate nel caso in cui sono verificate le due ipotesi

a) siano uguali tutte le incertezze sulle misure y
b) siano trascurabili le incertezze sulle x

Se non è valida la prima condizione, possiamo ricavare altre espressioni per le stime e le loro
incertezze, basate sul “principio del minimo
2
_ ”. Se non è valida la seconda condizione, il
problema è molto più complesso (diventa non lineare) e si può risolvere o con trucchi
(riportando per esempio l’incertezza sulla x sulla variabile y) o con procedure di ottimizzazione
ricorsiva.


69
2.3.8 Esempi di stima ai minimi quadrati: fit lineare generale – fit
polinomiale


Possiamo applicare il metodo del minimo
2
_ , o dei minimi quadrati che ne è un caso
particolare, a un fit fatto con una combinazione lineare di funzioni ( )
i
f x . Per esempio, se
vogliamo fare un fit con una funzione sinusoidale di nota frequenza, ma incognita fase e
ampiezza, possiamo porre

(2.198) ( ) ( )
0 1 0 2 0
sin sin cos y x A x a x a x e ¢ e e = · + = +

quindi le funzioni base in questo caso sono ( ) ( )
1 0
sin f x x e = e ( ) ( )
2 0
cos f x x e = . Se
stimiamo quindi a
1
e a
2
possiamo ottenere


2 2
1 2
1 2
ˆ
ˆ ˆ
ˆ ˆ
ˆ ˆ cos sin
ˆ ˆ
A a a
a a
A A
¢ ¢
= +
= =



Un altro caso notevole è quello del fit con un polinomio, in cui le funzioni base della
combinazione lineare sono le ( )
i
i
f x x = , quindi

(2.199) ( )
2 1
1 2 3
...
M
M
y x a a x a x a x
÷
= + + +

che, come è chiaro, è lineare nelle incognite
i
a .

In questi casi possiamo operare analogamente al caso del fit lineare, minimizzando
l’espressione

(2.200) ( )
( )
2
2
1
1 2
1
, ,...,
M
k i i k n
i
M
k k
y a f x
a a a _
o
=
=
| |
÷
|
| =
|
|
\ .
¿
¿


dove n è il numero dei punti sperimentali (o “osservazioni”) ed M il numero dei parametri
liberi, x
k
sono i valori dell’ascissa (noti senza incertezza) e
k
o le incertezze sulle
osservazioni y
k
(deviazioni standard dell’errore casuale aspettato). Questa stima è
particolarmente conveniente se gli errori di misura sono gaussiani.
In genere si deve avere M ≤ n , cioè il numero di parametri del fit dovrebbe essere minore o
al massimo uguale al numero di osservazioni, altrimenti il problema è indefinito.

Il minimo della (2.200) si calcola annullando le derivate rispetto agli M parametri. Diamo
soltanto il risultato del calcolo.
Avendo posto il vettore a il vettore le cui componenti sono gli M parametri a
i
da stimare, la
matrice A nxM con elementi
70

(2.201)
( )
i k
ki
k
f x
A
o
=


e il vettore y’ con n elementi

(2.202) '
k
k
k
y
y
o
=

costruiamo la matrice MxM

(2.203)
T
= B A A

e il vettore con M elementi

(2.204)
T
= · b A y'


Si ha che la stima dei parametri è data dalla soluzione del sistema di equazioni

(2.205) ˆ · B a = b

La matrice inversa

(2.206)
1 ÷
= C B

è la matrice di covarianza dei parametri a
k
. Gli elementi sulla diagonale sono le varianze
sui parametri, e quindi le incertezze sono

(2.207)
i ii
C o =



71

2.3.9 Media pesata

Se si hanno varie valutazioni della misura di una grandezza, con incertezze differenti, come
possiamo utilizzare questi risultati per stimare al meglio il valore vero della grandezza ?

La risposta è sì. Supponiamo di avere n misure indipendenti m
i
, di una grandezza M, ciascuna
con incertezza (assimilata a una deviazione standard) s
i
, e gli errori di misura siano normali.
Come abbiamo visto nella (2.171), si ha

(2.208)
2
1
2
1
ˆ
1
n
i
i i
n
i i
m
s
M
s
=
=
=
¿
¿



Questa può essere vista come una media pesata con pesi

(2.209)
2
2
1
1
1
i
i n
i i
s
a
s
=
=
¿


ovviamente i pesi sono maggiori per le misure con incertezze minori. Si noti che il risultato
non cambia se tutte le incertezze sono moltiplicate per uno stesso fattore (le a
i
sono le stesse).

L’incertezza è data da

(2.210)
2
1
1
1
n
i i
M
s
=
A =
¿


Se le incertezze sono tutte eguali, si ricava la solita espressione per l’incertezza delle misure
ripetute.


72
2.3.10 Test statistici

Un problema centrale che si pone negli esperimenti scientifici è decidere se i risultati di un
certo esperimento sono in accordo con la teoria. Per esempio, la traiettoria osservata di un
corpo in caduta libera è in accordo con la legge di gravitazione ? I risultati di un esperimento
con il pallinometro sono in accordo con la formula teorica della distribuzione aspettata delle
frequenze dei vari bin ?

In altri casi sperimentali, potremmo voler testare se ci sono differenze in due diverse
procedure sperimentali, oppure verificare l’efficacia di un certo trattamento (per esempio
l’assunzione di un farmaco per la cura di una certa malattia).

Analoghe domande si possono porre per esempio nel controllo di qualità dei prodotti (i
pneumatici prodotti da un certo stabilimento hanno una durata maggiore di quelli di un altro
?) o in altri campi della tecnica.

Questo tipo di problemi, che implicano una decisione (sì o no) è formalizzato nella teoria
statistica dei test d’ipotesi, che è un altro aspetto dell’inferenza statistica. In questa teoria
vengono prima di tutto formulate due ipotesi: l’ipotesi H
0
, detta ipotesi nulla, e l’ipotesi H
1
,
detta ipotesi alternativa. Per esempio, l’ipotesi H
0
, che in genere è quella più precisamente
definita, nel caso della verifica sperimentale di una teoria, potrebbe essere che ci sia perfetto
accordo tra teoria ed esperimento (errore nullo); nel caso del farmaco potrebbe essere che non
ci sia effetto (effetto nullo).

Lo scopo di un test di ipotesi è valutare se c’è sufficiente evidenza statistica per accettare
l’ipotesi H
0
. Per far ciò calcoliamo una funzione del campione (la “statistica” del test)
particolarmente utile per poter discriminare la presenza o l’assenza dell’effetto in oggetto. La
distribuzione della statistica del test viene quindi utilizzata per definire l’insieme dei valori di
accettazione (detto regione di accettazione) e il suo complementare, l’insieme dei valori di rigetto
(detto regione critica o di rigetto).

Il risultato del test, cioè la nostra decisione, è sempre o l’accettazione o il rifiuto dell’ipotesi, a
seconda che la statistica del test fornisca valori interni alla regione di accettazione o di rigetto.

Nel far ciò possiamo aver fatto la scelta giusta o compiuto un errore. Abbiamo il seguente
schema:


Situazione reale
Decisione
statistica
H
0
vera H
0
falsa
Accettare H
0
1 P o = ÷
Errore di secondo tipo:
P | =
Rifiutare H
0

Errore di primo tipo:
P o =
1 P | = ÷


Vediamo che si possono commettere due tipi di errori:

73
 il primo, a cui è associata la probabilità o , chiamata livello di significatività del test,
capita quando rifiutiamo un’ipotesi H
0
vera. Questa probabilità viene chiamata talvolta
probabilità di falso allarme.
 il secondo, a cui è associata una probabilità | , capita quando accettiamo come buona
una ipotesi H
0
falsa.

Notiamo che 1 o ÷ è equivalente al livello di fiducia ¢ introdotto nel capitolo
precedente parlando della stima dell'intervallo di fiducia.

Possiamo decidere di diminuire la probabilità di un certo tipo di errore (cambiando la soglia di
decisione), ma così facendo aumentiamo la probabilità dell’errore dell’altro tipo. La scelta della
soglia può essere fatta associando a ciascun tipo di errore un costo (per esempio C
1
e C
2
), e
quindi porre la soglia di decisione in modo da minimizzare il suo valore aspettato

(2.211) | |
1 2
E C C C o | = · + ·

La probabilità associata alla statistica osservata viene detta “livello di significatività osservato”.
Se questo valore è vicino al livello di significatività o , si può pensare, ove possibile, di
ripetere il test.

Nella costruzione di un test statistico talora non si considerano gli errori di secondo tipo.


2.3.11 Test di consistenza con un valore teorico

Supponiamo di avere una misura sperimentale m, con incertezza Δm (rappresentante la
deviazione standard dell'errore casuale) e vogliamo decidere se è consistente con un valore
teorico t (con incertezza trascurabile). Definiamo a priori un livello di fiducia ¢ (o,
equivalentemente, un livello di significatività 1 o ¢ = ÷ ), e calcoliamo (con le tavole
dell'integrale della gaussiana) il semi-intervallo di fiducia relativo z
¢
.
Valutiamo quindi

(2.212)
m t
z
m
÷
=
A


e decidiamo sul superamento del test sulla base del valore di z z
¢
÷ : se è positivo il test è
superato (accettiamo l'ipotesi), altrimenti rigettiamo l'ipotesi.


2.3.12 Test di consistenza tra due valori sperimentali

Supponiamo di avere due misure m
1
e m
2
con incertezze relativamente Δm
1
e Δm
2
(o
analogamente un valore sperimentale e uno teorico con incertezza non trascurabile). Ci
domandiamo se sono compatibili, avendo definito un certo livello di fiducia.
Per costruire il test, costruiamo una nuova grandezza d = m
1
- m
2
che ha incertezza
74

2 2
1 2
d m m A = A +A . Se le due misure sono consistenti, il valore aspettato di d è 0.
Costruiamo quindi l'intervallo di fiducia relativo al livello di fiducia e al Δd, simmetricamente a
d, e verifichiamo se il valore 0 è interno od esterno a questo intervallo: nel primo caso
accettiamo l'ipotesi, altrimenti la rigettiamo.


2.3.13 Test del _
2


Se la verifica di un'ipotesi teorica corrisponde alla verifica della consistenza di più valori
sperimentali, ognuno con la sua incertezza, con altrettanti valori teorici, è molto usato il test
del
2
_ (chi quadro).

Supponiamo per esempio di avere un grafico (x, y), in cui, in corrispondenza di n punti {x
1
,
x
2
,…,x
n
} sulle ascisse, siano riportati n punti sperimentali
{ }
( ) ( ) ( )
1 2
, ,...,
S S S
n
y y y , con incertezze
"gaussiane" { }
1 2
, ,...,
n
o o o , e si voglia testare la consistenza tra essi e gli n valori teorici
{ }
( ) ( ) ( )
1 2
, ,...,
T T T
n
y y y . Supponiamo inoltre che gli errori di misura siano indipendenti e che non
siano state ricavate informazioni dai dati sperimentali per calcolare i valori teorici.
In questo caso costruiamo la variabile

(2.213)
( )
2
( ) ( )
2
2
1
S T
n
i i
i
i
y y
_
o
=
÷
=
¿


Notiamo che gli elementi della sommatoria sono quadrati di variabili normali standardizzate,
quindi la variabile da noi costruita ha la distribuzione del
2
_ con n gradi di libertà. Se quindi
definiamo un livello di fiducia ¢ (o, equivalentemente, un livello di significatività 1 o ¢ = ÷ ),
possiamo calcolare quale sia il valore limite
2
MAX
_ tale che

(2.214)
( )
2
2
( )
0
MAX
n
f x dx
_
_
¢ =
}


dove ( ) 2
( ) n
f
_
· è la densità di probabilità del
2
_ con n gradi di libertà. I valori di
2
MAX
_ per un
dato valore del livello di fiducia e per un dato numero di gradi di libertà, sono tabulati su tavole
come quella in appendice a questi appunti.

Se per calcolare i valori teorici abbiamo dovuto valutare m parametri indipendenti di
un'equazione a partire dagli n numeri sperimentali, allora si abbassa il numero di gradi di libertà
a n – m e quindi dobbiamo usare la distribuzione del
2
_ con n – m gradi di libertà.

Un caso particolare di test del
2
_ è quello che si usa per testare la consistenza tra una
distribuzione teorica e un istogramma di frequenza.
A partire dalla distribuzione teorica e dal numero di dati istogrammati, calcoliamo i valori
teorici delle frequenze degli m < n bin, a partire dalle probabilità { }
1 2
, ,...,
n
p p p e
75
moltiplicandole per n; siano questi valori teorici
{ }
( ) ( ) ( )
1 2
, ,...,
T T T
m
h h h . Siano invece
{ }
( ) ( ) ( )
1 2
, ,...,
S S S
m
h h h le frequenze trovate sperimentalmente per ciascun bin, istogrammando gli n
dati. Si noti che il parametro n lo possiamo ricavare sommando tutte le frequenze ottenute per
i vari bin, quindi il numero di gradi di libertà si riduce di 1. Ulteriori riduzioni possono aversi
se ci occorrono altri parametri per calcolare le p
i
.

Notiamo inoltre che le distribuzioni della frequenza nell'i-esimo bin è distribuita secondo una
distribuzione binomiale con parametri n e p
i
, e, se i bin sono tanti, p
i
è piccolo e quindi la
binomiale si può approssimare, in tal caso, ad una poissoniana; quindi la varianza è proprio
( ) T
i
h . Costruiamo quindi la variabile

(2.215)
( )
2
( ) ( )
2
( )
1
S T
n
i i
T
i
i
h h
h
_
=
÷
=
¿

(se i bin sono pochi, l’approssimazione poissoniana porta a sottovalutare il valore di
2
_ ).
Attenzione però ! Abbiamo visto che le fluttuazioni casuali (le differenze tra
( ) S
i
h e
( ) T
i
h sono
distribuiti secondo Poisson, mentre per poter usare il test del
2
_ ed avere la distribuzione del
2
_ sulla variabile costruita, queste poissoniane devono essere approssimabili da gaussiane,
cosa che capita se il loro µ è abbastanza elevato (per esempio > 20). Ma ciò, se può essere
verificato per i bin centrali, quasi sempre non lo è per quelli estremi che sono tipicamente più
poveri. Possiamo allora seguire una delle seguenti due strade:

 trascuriamo i bin periferici (in tal caso il numero di gradi di libertà è dato
semplicemente dal numero dei bin considerati)
 "accorpiamo" (cioè sommiamo i loro contenuti) più bin insieme (non necessariamente
adiacenti); in questo caso il numero di gradi di libertà si calcola nel modo normale.


76
3 Sistemi discreti

3.1 Introduzione

Un sistema discreto (o a dati campionati) è un elaboratore di segnali discreti (o campionati).
Cioè un sistema che accetta in ingresso una (o più) successioni di dati campionati e produce in
uscita una (o più) successioni di dati campionati. Analogamente a quanto accade per i sistemi
continui, che si possono definire in generale tramite l’equazione (1.8), essi possono definirsi
tramite l’equazione (1.9), che riportiamo:

(3.1)
1
( , )
( , )
i i i
i i i
y F x s
s G x s
÷
= ¦
¦

´
¦
=
¹


dove
i
x ,
i
y e
i
s sono rispettivamente i vettori d’ingresso, di uscita e di stato all’istante
(campionato) i. Le dimensioni dei suddetti vettori sono in genere differenti; nel seguito ci
occuperemo essenzialmente di sistemi con un ingresso ed una uscita, cioè con dimensioni di x
e y uguali ad 1.
Se le funzioni F e G non dipendono dal tempo (cioè dall’indice i), il sistema è tempo-
invariante. Nel seguito considereremo quasi esclusivamente sistemi tempo-invarianti (detti
anche stazionari): trascureremo quindi di specificarlo.
Diciamo che un sistema è lineare se le funzioni F e G sono lineari, cioè sono equazioni
matriciali. In tal caso

(3.2)
1
i i i
i i i
y x s
s x s
÷
= · + · ¦
¦

´
¦
= · + ·
¹
A B
C D


con A, B, C e D delle matrici.

Ci sono altre rappresentazioni dei sistemi discreti lineari.

Definiamo la risposta impulsiva
k
w del sistema come la risposta alla successione

(3.3)
0 per 0
1 per 0
i
i
i
o
= ¦
=
´
=
¹


che è detta funzione impulsiva discreta, o impulso unitario o anche delta discreta ed ha
nei sistemi discreti un ruolo analogo alla delta di Dirac per i sistemi continui.

Analogamente a quanto accade per i sistemi continui, per i sistemi lineari discreti (tempo-
invarianti) la risposta a un ingresso generico
i
x è data dalla convoluzione discreta della
i
x
per la risposta impulsiva
k
w :

77
(3.4) i i k k
k
y x w
·
÷
=÷·
= ·
¿

Ovviamente nella (3.4), se la
i
x è data dalla (3.3), allora
i i
y w = .

Se il sistema è causale, la (3.4) diventa

(3.5)
0
i i k k
k
y x w
·
÷
=
= ·
¿


L’operazione di convoluzione discreta (3.4) viene spesso indicata in modo abbreviato,
similmente alla convoluzione continua, con

(3.6) y x w = ©


Se 0
k
w = per tutti i k<0, il sistema è causale.

La (3.4) è un altro modo di rappresentare un sistema lineare, in genere più pratico di
quello dell’equazione (3.2). In esso non compare lo stato, ma gli ingressi a tutti i tempi
precedenti. Il vettore di stato può essere visto come la condizione in cui è stato pilotato
il sistema dagli input precedenti.



78
3.2 Casi particolari

Ci sono poi casi particolari di sistemi lineari discreti, spesso molto utili:

- sistemi moving average (MA), cioè “a media mobile”, detti anche FIR (Finite Impulse
Response), rappresentati dall’equazione

(3.7)
0
m
i k i k
k
y b x
÷
=
= ·
¿


cioè l’uscita
i
y è ottenuta dalla convoluzione delle successioni x (infinita) e b (finita). Come si
vede immediatamente, questi sistemi sono caratterizzati da una risposta impulsiva composta da
soli m+1 campioni. Hanno quindi una memoria finita: l’uscita è indipendente completamente
da ciò che gli è stato dato in ingresso prima degli ultimi m+1 campioni.

- sistemi auto-regressivi (AR), detti anche IIR (Infinite Impulse Response), rappresentati
dall’equazione

(3.8)
0
1
n
i i k i k
k
y b x a y
÷
=
= · ÷ ·
¿


in cui l’uscita a un dato istante viene espressa in funzione dell’ingresso a quell’istante e da una
combinazione delle uscite negli n istanti precedenti. Si dimostra che la risposta impulsiva di
questo tipo di sistemi è di lunghezza infinita. Facciamo un esempio: consideriamo il caso in cui
n=1 e
1
a w = ÷ . La (3.8) diventa

(3.9)
0 1 i i i
y b x w y
÷
= · + ·

e, ponendo come ingresso la successione (3.3), abbiamo

(3.10)
0 0
1 0
2
2 0
3
3 0
0 per 0
...
i
y i
y b
y b w
y b w
y b w
= <
=
= ·
= ·
= ·


e quindi, in generale,

(3.11)
0
i
i
y b w = ·

per qualsiasi i > 0 .


- sistemi ARMA (auto-regressive moving average), rappresentati dall’equazione

79
(3.12)
0 1
m n
i k i k k i k
k k
y b x a y
÷ ÷
= =
= · ÷ ·
¿ ¿


che comprende una combinazione lineare degli m+1 ingressi precedenti e le n uscite
precedenti. Generalizza i due casi precedenti.


3.2.1 Semplice applicazione di sistemi MA e AR

Supponiamo di avere una successione
i
x di misure di una grandezza fisica s costante,
“disturbate” da un “rumore” (cioè da errori casuali),

(3.13)
i i
x s n = +

Supponiamo che gli errori
i
n siano tra loro indipendenti e di voler stimare il valor medio di s.
Come è noto, un buon metodo per fare questa stima è prendere la media di un certo numero
di valori delle misure
i
x . Supponiamo che gli errori (o il “rumore”)
i
n abbiano valor medio
nullo e deviazione standard o ; possiamo definire o “incertezza”
17
su s da una singola
misura. Se facciamo la media su N misure, diminuiamo l’incertezza su s di N volte.

Supponiamo ora che la grandezza s vari lentamente nel tempo. Come possiamo stimarla? Un
modo potrebbe essere prendere la media di un numero N di misure successive abbastanza
piccolo che, durante le N, s sia variato in modo trascurabile
18
. Ciò significa che possiamo fare
ad ogni istante i una stima
i
µ del valor medio di s. Abbiamo

(3.14)
1
0
1
N
i i k
k
x
N
µ
÷
÷
=
=
¿


Ciò è realizzato tramite un sistema MA con coefficienti tutti eguali
1
k
b
N
= , per 0 1 k N s s ÷ .

Un problema di questo modo di procedere è che appare piuttosto innaturale considerare tutti e
soli gli ultimi N campioni, tutti con lo stesso peso. Si possono fare scelte dei pesi che
decrescono con k, in modo che i valori più lontani, e che quindi possono avere un s più
diverso rispetto al valore all’istante i, pesino di meno.

Una scelta particolarmente “ragionevole” è “comoda” è usare un sistema AR del tipo di eq.
(3.9), con
1
N
w e
÷
= . Ciò equivale a fare una media mobile con infiniti termini (in linea di
principio, in pratica si considerano tutti i termini precedenti disponibili), con pesi decrescenti

17
Potremo dare differenti definizioni dell’incertezza, per esempio 2o , o 3o .
18
Vedremo in seguito come le varie espressioni qualitative presenti in questo paragrafo possano essere rese
quantitative.
80
in modo esponenziale con la distanza. Si noti che questa soluzione è anche molto “leggera”
computazionalmente, perché ad ogni passo richiede solo una moltiplicazione e un prodotto
19
.

Abbiamo qui considerato solo sistemi “causali” che permettono di dare la stima
i
µ non
appena è disponibile il campione
i
x . In molti casi non c’è questa restrizione, e quindi per
i
µ
possono utilizzarsi anche i campioni con indice maggiore di i.

In particolare il filtro MA visto precedentemente diventa, ovviamente con un diverso N,

(3.15)
1
2 1
N
i i k
k N
x
N
µ
÷

=
+
¿


Per quanto riguarda il filtro AR, possiamo applicarlo due volte, una volta (“in avanti”)
normalmente e l’altra (“all’indietro”) invertendo l’ordine dei campioni; in tal modo il filtraggio
avviene considerando per ciascun campione tutti i campioni, sia precedenti che seguenti.


19
Anche un filtro MA con tutti i pesi uguali può realizzarsi con un basso costo computazionale, ma con un
maggiore “costo” di memoria.
81
3.3 Trasformata z

Definiamo trasformata z di un segnale discreto { }
i
x

(3.16) ( )
i
i
i
X z x z
·
÷
=÷·
= ·
¿


dove
j
z r e
O
= · è una variabile complessa definita per tutti i valori per cui la (3.16) converge.
Essa viene anche indicata con { } ( )
i
X z x =Z o, quando è chiaro che parliamo di trasformate
z, con ( ) ( ) x t X z ÷ .
Con la trasformata z associamo a un segnale discreto un polinomiale.
Si noti che, se la serie { }
i
x è di lunghezza finita, la regione di convergenza copre tutto il piano
della variabile z (piano di Gauss). Se è infinita destra, cioè nulla per i minore di un certo valore,
la regione di convergenza è l’esterno di un cerchio di centro l’origine (il raggio del cerchio
dipende dalla serie). Analogamente, se è infinita sinistra, cioè nulla per i maggiore di un certo
valore, la regione di convergenza è l’interno di un cerchio di centro l’origine.
Facciamo un esempio di calcolo analitico della trasformata z. Supponiamo di avere una serie

(3.17) { }
0 per 0
per 0
i
i
i
x
w i
<
¦
=
´
>
¹


Allora, dalla (3.16),

(3.18) ( )
1
0
1
1
i i
i
X z w z
w z
·
÷
÷
=
= · =
÷ ·
¿


Se la trasformata X(z) converge nel dominio anulare definito da
1 2
| | R z R < < allora si può
calcolare la trasformata inversa con

(3.19) ( )
1
1
2
k
k
C
x X z z dz
j t
÷
= · ·
}


dove C è un percorso chiuso che separa
1
| | z R = da
2
| | z R = . Questo integrale può calcolarsi
con l’ausilio del teorema dei residui di Cauchy:

(3.20) ( ) ( )
1 1
1
residui di nei poli interni a C
2
k k
C
X z z dz X z z
j t
÷ ÷
( · · = ·
¸ ¸
¿
}


Se la X(z) è una funzione razionale, se cioè è data dal rapporto di due polinomi, possiamo
ottenere il rapporto dei due polinomi come un polinomiale della variabile
1
z
÷
, l’antitrasformata
si ottiene immediatamente.

In molti casi la trasformata inversa può calcolarsi usando le tavole e le proprietà della
trasformata z.

82
3.3.1 Analogia con la trasformata di Laplace

Un segnale discreto { }
i
x può essere associato ad un segnale continuo, costituito da una
successione di delte di Dirac,

(3.21) ( ) ( )
k
k
x t x t k t o = · ÷ · A
¿


essendo t A il tempo di campionamento. La trasformata di Laplace del segnale x(t) è

(3.22) ( )
s k t
L k
k
X s x e
÷ · ·A
= ·
¿


e la trasformata di Fourier è

(3.23) ( )
j k t
F k
k
X x e
e
e
÷ · ·A
= ·
¿


Sostituendo
s t
z e
·A
= , si ha

(3.24) ( ) ( ) s t
L
z e
X s X z
A
=
=

e, se sul cerchio di raggio 1 c’è convergenza,

(3.25) ( ) ( ) j t
F
z e
X X z
e
e
A
=
=


Si noti che ( )
L
X s e ( )
F
X e sono periodiche (la prima sulla direzione immaginaria), con
periodo

(3.26)
0
2
t
t
e =
A


Il mapping del piano s sul piano z (non univoco, il che spiega la suddetta periodicità) è tale che
l’asse immaginario diventa il cerchio unitario, il semi-piano sinistro diventa l’interno di tale
cerchio e il semi-piano destro l’esterno.


3.3.2 Proprietà della trasformata z

Sia ( ) X z ,
( )
( )
1
X z e
( )
( )
2
X z le trasformate di { }
i
x ,
( )
{ }
1
i
x e
( )
{ }
2
i
x rispettivamente.

- Linearità:


83
(3.27)
( ) ( )
{ }
( )
( )
( )
( )
{ }
1 2 1 2
i i
a x b x a X z b X z · + · ÷ · + ·


- Shift (scorrimento, ovvero ritardo o avanzamento):


(3.28) { } ( )
k
i k
x z X z
÷
÷
÷ ·

Notiamo che la variabile z agisce come un operatore di avanzamento, ovvero uno scorrimento
a sinistra;
1
z
÷
come un operatore di ritardo, ovvero uno scorrimento a destra.


- Inversione temporale :

(3.29) { } ( )
1
i
x X z
÷
÷
÷


- Moltiplicazione per una sequenza esponenziale :

(3.30)
{ }
1
i
i
x X z o
o
| |
· ÷
|
\ .


Se o è reale, ciò corrisponde ad uno scaling nel dominio z, se è
j
e
¢
o = , ciò corrisponde ad
una rotazione nel piano z.

- Convoluzione :

La trasformata z del segnale ottenuto come convoluzione di due segnali discreti (vedi
equazione (3.4)) è data dal prodotto delle due trasformate z dei due segnali. Essendo x e y due
successioni con trasformata z rispettivamente X e Y, si ha

(3.31) x y X Y © ÷ ·

La dimostrazione di questa proprietà, nel caso di segnali discreti di lunghezza finita, è
abbastanza semplice: è legata all’analogia tra l’operazione di convoluzione discreta e il prodotto
di due polinomi. Per rendersene conto, sviluppare il prodotto

(3.32)
( ) ( )
( ) ( ) ( ) ( )
2 2
0 1 2 0 1 2
2
0 0 0 1 1 0 0 2 1 1 2 0 0 0
... ...
...
n m
n m
m n
x x a x a x a y y a y a y a
x y x y x y a x y x y x y a x y a
+
+ · + · + + · · + · + · + + · =
· + · + · · + · + · + · · + + · ·




- Coniugazione :

84
(3.33)
{ } ( )
* * *
i
x X z ÷

Da cui si deduce che, se x è reale,

(3.34) ( ) ( )
* *
X z X z =


3.3.3 Alcune trasformate z

Vediamo ora le trasformate z di alcune semplici successioni:

- delta discreta (vedi (3.3)),

(3.35)
0 per 0
1
1 per 0
i
i
i
o
= ¦
= ÷
´
=
¹



- funzione gradino

(3.36)
1
0
0 per 0
1
1 per 0 1 1
i
i
i
i
z
u z
i z z
·
÷
÷
=
< ¦
= ÷ = =
´
> ÷ ÷
¹
¿



- esponenziale


(3.37)
1
1
1
i
i
z
u w
w z z w
÷
÷ =
÷ · ÷


- esponenziale “rampato”

(3.38)
( )
( )
1
2 2
1
1
i
i
w z wz
u i w
z w
w z
÷
÷
·
· · ÷ =
÷
÷ ·


- coseno

(3.39) ( )
( )
( )
( )
( )
1 2
0 0
0 1 2 2
0 0
1 cos cos
cos
1 2cos 2cos 1
i
z z z
u i
z z z z
e e
e
e e
÷
÷ ÷
÷ · ÷ ·
· · ÷ =
÷ · + ÷ · +



- seno

(3.40) ( )
( )
( )
( )
( )
1
0 0
0 1 2 2
0 0
sin sin
sin
1 2cos 2cos 1
i
z z
u i
z z z z
e e
e
e e
÷
÷ ÷
· ·
· · ÷ =
÷ · + ÷ · +

85
3.4 Trasformata di Fourier discreta ed FFT

3.4.1 La trasformata di Fourier per dati discreti (DTFT)

Come per i segnali continui abbiamo fatto derivare la trasformata di Fourier dalla trasformata
di Laplace, così per i segnali discreti possiamo derivare dalla trasformata z la trasformata di
Fourier per dati discreti (DTFT, discrete time Fourier transform) . Dalla (3.16),
imponendo |z|=1, cioè
j
z e
O
= , dove

(3.41) t e O= · A

è la pulsazione normalizzata (essendo t A è il tempo di campionamento), a cui corrisponde,
dividendola per 2t , una frequenza normalizzata a-dimensionale che ha valore massimo 1,
abbiamo

(3.42) ( )
j i
i
i
x e
·
÷ · ·O
=÷·
O = ·
¿
X


La trasformata inversa si ottiene come

(3.43) ( )
2
0
1
2
j i
i
x e d
t
t
· ·O
= O · · O
}
X

Ovviamente la (3.42) ha senso solo se la sommatoria converge e condizione sufficiente perché
ciò avvenga è che | |
i
x < ·
¿
.

Notiamo che la (3.42) è equivalente alla trasformata di Fourier per segnali continui per il
segnale continuo

(3.44) ( ) ( )
i
x t x t i t o = · ÷ · A
¿



Questa trasformata, oltre alle analoghe proprietà della trasformata di Fourier normale, gode
delle seguenti:

- periodicità: la ( ) O X è periodica di periodo 2t , come è ovvio

- prima differenza

(3.45)
( ) ( )
1
1
j
i i
x x e
÷ O
÷
÷ ÷ ÷ O X


- accumulazione (analogo nel discreto dell’integrazione)

86
(3.46) ( ) ( ) ( )
1
0
1
i
k j
k
x
e
t o
÷ O
=÷·
÷ · O + O
÷
¿
X X


La DTFT è analoga alla serie di Fourier (vedi (2.12)), solo che a domini invertiti: è
discreta nel tempo e continua e periodica nelle frequenze, come la serie di Fourier è
continua e periodica nel tempo e discreta nelle frequenze.


3.4.2 La DFT (e la FFT)

Introduciamo ora la trasformata discreta di Fourier, un argomento di grande interesse
pratico, poiché è ciò che viene in effetti normalmente calcolato col computer. Per far ciò
poniamo che la {
i
x } non sia di lunghezza infinita, ma lunga N (ovvero che sia nulla per i < 0 e
per i > N-1).
Definiamo trasformata discreta di Fourier (DFT) la seguente successione:

(3.47)
1
0
N
k i
k i N
i
X x W
÷
·
=
= ·
¿


dove

(3.48)
2
j
N
N
W e
t
÷
=

è la radice N-esima dell’unità. Possiamo calcolare la DFT inversa come

(3.49)
1
0
1
N
k i
i k N
x X W
N
÷
÷ ·
= ·
¿


Come si vede, abbiamo una trasformata tra due domini discreti e finiti: infatti sia il tempo che
la frequenza (più precisamente la pulsazione) sono discreti e finiti. Quindi si capisce l’utilità di
questa trasformata, ovviamente parente stretto della trasformata di Fourier per i dati discreti.
Infatti

(3.50)
2
k
k
X
N
t · | |
=
|
\ .
X

Il calcolo della DFT, per grandi valori di N (che può essere per esempio dell’ordine di 10
6
),
richiede un grandissima potenza di calcolo. Infatti, trascurando il calcolo delle potenze di W
N
,
che possono essere calcolati a priori, dobbiamo eseguire circa N
2
moltiplicazioni ed altrettante
addizioni (per N=10
6
abbiamo 10
12
operazioni di ciascun tipo). È stato però introdotto (da
Cooley e Tukey nel 1965) un algoritmo di calcolo, la Fast Fourier Transform o FFT, che
riduce il numero di operazioni a un valore proporzionale a log N N · (in una delle migliori
implementazioni è
2
5 log N N · · , per N=10
6
abbiamo circa 10
8
, cioè 10000 volte più veloce.


87
3.5 Equazioni alle differenze

L’equazione (3.12) può essere riscritta come

(3.51)
0 0
n m
k i k k i k
k k
a y b x
÷ ÷
= =
· = ·
¿ ¿


dove
0
1 a = . Sottolineiamo che questa equazione descrive un sistema causale
20
.
Si noti la somiglianza con la (2.8): in quella l’operatore differenziale sostituisce l’operatore
ritardo presente di questa. E infatti nei sistemi discreti l’operatore “avanzamento” ha una
funzione analoga all’operatore differenziale dei sistemi continui: le equazioni alle differenze
finite, come la (3.51), prendono il posto delle equazioni differenziali.
Si noti che i due termini della (3.51) possono essere visti come due convoluzioni, della
sequenza finita { }
i
a e della sequenza infinita{ }
i
y e della sequenza finita { }
i
b e della
sequenza infinita { }
i
x . Definendo le trasformate z

(3.52)
( )
( )
( )
( )
0
0
i
i
i
i
i
i
n
i
i
i
m
i
i
i
X z x z
Y z y z
A z a z
B z b z
·
÷
=÷·
·
÷
=÷·
÷
=
÷
=
= ·
= ·
= ·
= ·
¿
¿
¿
¿


possiamo utilizzare la proprietà della trasformata z della convoluzione ed otteniamo
l’equazione

(3.53) ( ) ( ) ( ) ( ) A z Y z B z X z =


Un’equazione come la (3.51) è detta equazione lineare alle differenze.






20
Questa trattazione è valida per sistemi causali, ma può facilmente adattarsi a sistemi non causali, con la
limitazione che a) l’uscita dipenda da ingressi posteriori, ma non da uscite posteriori, b) ci sia un limite al
massimo “futuro”. Il caso di sistemi anti-causali è ovviamente banale.
88
3.6 Funzione di trasferimento discreta

Riscriviamo l’equazione (3.53) come

(3.54) ( )
( )
( )
( )
B z
Y z X z
A z
= ·

e quindi l’uscita y del sistema (o meglio la sua trasformata z) può ottenersi dall’ingresso x, z-
trasformato e moltiplicato per la funzione

(3.55)
( )
( )
( )
B z
F z
A z
=

o anche, esplicitando,

(3.56) ( )
0
1
1
m
i
i
i
n
i
i
i
b z
F z
a z
÷
=
÷
=
·
=
+ ·
¿
¿


La funzione F(z) è detta funzione di trasferimento discreta e opera analogamente alla
funzione di trasferimento definita per i sistemi continui.

Possiamo sviluppare la (3.56) in serie di potenze di z, ottenendo

(3.57) ( )
0
i
i
i
F z f z
·
÷
=
= ·
¿


(se n=0, la serie è finita), dove le { }
i
f sono la risposta impulsiva.

È chiaro che la (3.54) risolve in modo formalmente semplice il problema del calcolo della
risposta forzata dell’equazione (3.51) (ma in pratica potrebbe risultare piuttosto complesso,
dato il problema del calcolo della trasformata dell’ingresso e soprattutto dell’anti-trasformata
dell’uscita).

La funzione di trasferimento è il modo più usato di rappresentare un sistema lineare
discreto tempo-invariante.

Una delle proprietà più importanti della funzione di trasferimento z (simile a quella delle
funzioni di trasferimento con la trasformata di Laplace) è che la funzione di trasferimento di
un sistema composto da due sistemi in cascata F
1
e F
2
, ha come funzione di trasferimento il
prodotto delle due:

(3.58)
1 2
F F F = ·

89
Possiamo anche definire il sistema inverso di uno dato, tale che se messo in cascata con esso il
sistema risultante ha funzione di trasferimento 1, semplicemente come

(3.59)
( )
( )
1
I
F z
F z
=

tuttavia, perché sia “utilizzabile”, dobbiamo verificare che
( )
I
F z sia stabile.

Poiché la trasformata z della delta discreta è 1, la F(z) è anche la trasformata z della
risposta impulsiva del sistema.

Ricordando che sul cerchio unitario
j
z e
O
= , possiamo facilmente calcolare la risposta in
frequenza del sistema (la risposta a una sinusoide campionata) come

(3.60)
( ) ( )
0
1
1
m
j k
k
j
k
n
j k
k
k
b e
F e
a e
÷ ·O·
·O
=
÷ ·O·
=
·
O = =
+ ·
¿
¿
F



La pulsazione O è definita per 0 2t s Os e, se i coefficienti a e b sono reali,

(3.61)
( ) ( )
* j j
F e F e
·O ÷ ·O
=

e quindi il valore massimo “effettivo” di O è t . I valori di O tra t e 2t possono vedersi
come frequenze angolari negative (ricordiamo che l’”asse O” è in effetti una
circonferenza) e per sistemi a coefficienti reali la simmetria (3.61) è una simmetria tra
frequenze positive e negative. Per i sistemi a coefficienti non reali, tale simmetria non
sussiste.

Si noti che, nel caso dei coefficienti reali, per 0 O= e t O= F è reale, quindi lo
sfasamento è nullo.

Usando la pulsazione (o frequenza angolare) “fisica” e ,

(3.62) ( ) ( )
j t
t F e
e
e
· ·A
· A = F


( ) O F è una funzione complessa della pulsazione normalizzata O: per ciascun valore di O
abbiamo un numero complesso il cui modulo indica il guadagno del sistema e la fase lo
sfasamento. Possiamo quindi rappresentare la ( ) t e· A F con i classici diagrammi di Bode.

Analogamente a come si è fatto per il continuo, la funzione di trasferimento è completamente
descritta avendo dato

- gli zeri del polinomio al numeratore (chiamati semplicemente “zeri” z
k
)
90

- gli zeri del polinomio al denominatore (chiamati “poli” p
k
)

- il valore di b
0



3.6.1 Differenze e derivate

Data una successione { }
i
x , chiamiamo differenza prima di { }
i
x la successione

(3.63)
1 i i i
y x x
÷
= ÷

La (3.63) rappresenta un sistema MA del primo ordine con funzione di trasferimento

(3.64) ( )
1
1 F z z
÷
= ÷

Possiamo costruire la differenza seconda di { }
i
x , facendo la differenza prima di { }
i
y ; il
"sistema" che fa la differenza seconda equivale a due sistemi che fanno la differenza prima
posti in serie, quindi la sua funzione di trasferimento è il quadrato della (3.64)

(3.65) ( ) ( )
2
1 1 2
1 1 2 F z z z z
÷ ÷ ÷
= ÷ = ÷ +

Con le potenze successive della (3.64) si possono costruire le differenze di ordine superiore.

Si noti l'analogia della differenza prima (nel discreto) con la derivata prima (nel continuo).

Si può invertire l'operazione di differenza prima, con un sistema con funzione di trasferimento
inversa

(3.66) ( )
1
1
1
F z
z
÷
=
÷


che equivale al sistema AR del primo ordine

(3.67)
1 i i i
y x y
÷
= +

che esegue un'operazione analoga a quella dell'integrale nel continuo

(3.68) ( ) ( )
t
y t x d 0 0
÷·
= ·
}


Ma quanto l'operazione di differenza è vicina a quella di derivazione ? Questa questione potrà
essere discussa quantitativamente alla luce di concetti che svilupperemo in seguito (lo spettro
di potenza o di energia di un segnale), ma è chiaro che la differenza sarà una tanto migliore
"stima" della derivata, quanto più lenta è la variazione del segnale (a parte un coefficiente
91
dovuto al tempo di campionamento, che noi normalmente, lavorando direttamente nel
discreto, supponiamo pari all'unità di tempo).
92
3.7 Risposta di un sistema discreto

La soluzione generale di un’equazione lineare alle differenze è data dalla somma dell’evoluzione
libera, cioè la soluzione ottenuta con ingresso nullo, e dalla risposta forzata, cioè dalla soluzione
ottenuta con le condizioni iniziali (gli n valori precedenti il primo valore di ingresso non nullo)
tutte poste a 0.
Il caso più semplice di risposta forzata è la risposta impulsiva, che è la risposta forzata in cui la
“forzante”, cioè l’ingresso, è un segnale a delta unitario. A partire dalla risposta impulsiva si
può ricavare la risposta forzata e a quest’ultima può ricondursi l’evoluzione libera.

3.7.1 Risposta impulsiva

La risposta impulsiva di un sistema descritto dalla (3.51) può essere ottenuta semplicemente in
modo ricorsivo, ponendo
0
1 x = e tutti i valori successivi a 0.

Un altro modo per ricavarla è eseguire la divisione tra i polinomi (nella variabile
1
z
÷
) a
numeratore e a denominatore, ottenendo (in genere) una equivalenza tra la funzione di
trasferimento e un polinomiale infinito, in cui il coefficiente della potenza i-esima è l’i-esimo
valore della risposta impulsiva.

Per ottenere una soluzione in forma analitica, osserviamo che il sistema associato alla (3.51),
descritto dalla funzione di trasferimento (3.56), nel caso in cui tutti gli n poli siano differenti,
può essere visto come il parallelo di n sistemi, ciascuno dei quali ha un solo polo.

Quindi il k-esimo polo
( ) k
w darà una componente additiva al risultato proporzionale a

(3.69)
( )
( )
k i
i k
w q =

avremo quindi per la risposta impulsiva complessiva

(3.70)
( )
1
n
k
i k i
k
K q q
=
= ·
¿


dove le costanti
i
K possono essere calcolate dal sistema formato dalle prime n

(3.71)
( )
1
n
k
i k i
k
K q q
=
· =
¿


dove i
i
q sono i
i
q calcolati in modo ricorsivo (e ovviamente
i i
q q = ).



3.7.2 Risposta forzata

93
Se conosciamo la risposta impulsiva
i
q , possiamo ottenere la risposta forzata, ad un ingresso
{ }
i
x , come (vedi equazione (3.4))

(3.72)
0
i i k k
k
y x q
·
÷
=
= ·
¿




3.7.3 Evoluzione libera

L’evoluzione libera si ha quando l’ingresso è nullo, ma non sono nulli tutti o alcuni dei valori di
i k
y
÷
per 1 k n s s . Per l’evoluzione libera, possiamo considerare l’omogenea associata alla
(3.51)

(3.73)
0
0
n
k i k
k
a y
÷
=
· =
¿


o, ricordando
0
1 a = ,

(3.74)
1
n
i k i k
k
y a y
÷
=
= ÷ ·
¿


A partire dalle condizioni iniziali

(3.75)
1 2
, ,...,
n
y y y
÷ ÷ ÷


possiamo calcolare ricorsivamente l’evoluzione libera come

(3.76)
0 1 1 2 2
1 1 0 2 1 1
2 1 1 2 0 2
...
...
...
....
n n
n n
n n
y a y a y a y
y a y a y a y
y a y a y a y
÷ ÷ ÷
÷ ÷ +
÷ +
= ÷ ÷ ÷ ÷
= ÷ ÷ ÷ ÷
= ÷ ÷ ÷ ÷


Possiamo tuttavia ricavare per essa un’espressione analitica. Per far ciò notiamo che
l’evoluzione libera, nel caso delle condizioni (3.75), è equivalente alla risposta forzata della
parte AR, in cui l’ingresso è dato da

(3.77)
0 1 1 2 2
1 2 1 3 2 1
2 3 1 2 0 2
2 1 1 2
1 1
...
...
...
....
n n
n n
n n
n n n
n n
x a y a y a y
x a y a y a y
x a y a y a y
x a y a y
x a y
÷ ÷ ÷
÷ ÷ ÷ +
÷ ÷ +
÷ ÷ ÷ ÷
÷ ÷
= ÷ ÷ ÷ ÷
= ÷ ÷ ÷ ÷
= ÷ ÷ ÷ ÷
= ÷ ÷
= ÷

94

quindi basta calcolare questa risposta forzata.

Notiamo che l’evoluzione libera è indipendente dal numeratore della funzione di trasferimento
(parte MA dell’equazione alle differenze).




95
3.8 Stabilità

Condizione necessaria e sufficiente per la stabilità è che il modulo dei poli della funzione di
trasferimento sia minore di 1: i poli siano cioè interni al cerchio unitario.

Questa è la stabilità analitica. In pratica può accadere che un sistema analiticamente stabile non
lo sia nella sua implementazione su calcolatore. Ciò può accadere, per sistemi complessi con
poli molto vicini all’unità, a causa degli errori di arrotondamento.

Notiamo che i sistemi MA (o FIR), non avendo poli, sono intrinsecamente stabili.



96
3.9 Sistemi semplici

Analizziamo ora in dettaglio alcuni semplici sistemi MA e AR, cioè sistemi in cui
nell’equazione (3.51), che per comodità riscriviamo,

(3.78)
0 0
n m
k i k k i k
k k
a y b x
÷ ÷
= =
· = ·
¿ ¿


n (detto ordine AR) e m (detto ordine MA) hanno valori piccoli.

Spesso sistemi più complessi possono essere ricondotti a più di questi sistemi in cascata..

3.9.1 Sistema di ordine 0

Il sistema più semplice è quello in cui nell’equazione (3.78) , n=m=0 e abbiamo

(3.79)
0 i i
y b x = ·

Questo sistema non fa altro che amplificare di un fattore b
0
il segnale in ingresso. Questa
amplificazione è la stessa per tutte le frequenze (la funzione di trasferimento è semplicemente
b
0
).

Attenzione ! Se b
0
è complesso e
0 0
| |
j
b b e
¢ ·
= · , abbiamo un’amplificazione complessa che può
essere vista come un’amplificazione reale |b
0
| più uno sfasamento (eguale per tutte le
frequenze) di ¢ .

3.9.2 Sistema MA del primo ordine

Consideriamo il sistema in cui nell’equazione (3.78) , n=0 e m=1; abbiamo

(3.80)
0 1 1 i i i
y b x b x
÷
= · + ·

La funzione di trasferimento z è

(3.81) ( )
1
0 1
F z b b z
÷
= + ·

e la risposta in frequenza è

(3.82) ( ) ( )
0 1
j j
F e b b e
·O ÷ ·O
O = = + · F

La risposta impulsiva, finita, è composta da due termini:

(3.83)
0 0
1 1
x b
x b
=
=


97

Consideriamo dei casi particolari.

-
0 1
0, 1 b b = = , ovvero un sistema che esegue semplicemente un ritardo di un campione.
Analizziamo la risposta in frequenza:

(3.84) ( )
j
e
÷ ·O
O = F

Vediamo che abbiamo un’amplificazione unitaria per tutte le frequenze e uno sfasamento
proporzionale a O (si dice anche sfasamento lineare). È questa una caratteristica di
qualsiasi ritardo.
Un sistema come questo, in cui il guadagno non varia con la frequenza, ma in cui varia lo
sfasamento è detto sistema passa-tutto (all-pass system). Questo tipo di sistemi possono
essere molto utili. Dato un sistema F(z) possiamo sempre costruire un sistema passa-tutto
con la stessa caratteristica di fase di F(z), come

(3.85) ( )
( )
( ) | |
F z
G z
F z
=

Tale sistema tuttavia in genere non sarà causale.


-
0 1
1 b b = ÷ = , ovvero un sistema che esegue la differenza prima, l’analogo discreto della
derivata del continuo. Mostriamo i diagrammi di Bode
21
per questo sistema:


21
Normalmente nei diagrammi di Bode il guadagno è espresso in decibel. Qui, per semplicità, lo lasciamo
nelle sue unità naturali, in scala logaritmica. Ricordiamo che la misura in dB è
10
20 log G · .
98

Figura 3-1


Si noti che la pendenza è di una decade di guadagno per una decade di frequenza.


Figura 3-2

99

Si noti che a basse frequenze c’è uno sfasamento di 90 gradi positivo (in anticipo), mentre
per alte frequenze lo sfasamento è nullo.

Possiamo anche graficare la funzione di trasferimento nel piano di Gauss (che ha per assi
la parte reale e la parte immaginaria della variabile complessa), ottenendo il diagramma di
Nyquist


(la freccia indica frequenza crescente).

Si noti che, come un derivatore, è un sistema passa alto.

-
0 1
1
2
b b = = , ovvero un sistema che fa la media degli ultimi due campioni. Mostriamo i
grafici del guadagno e della fase per questo sistema:
100

Figura 3-3


Figura 3-4


e il diagramma di Nyquist

101

Figura 3-5


Si vede che si tratta di un sistema passa-basso.

Ci si può domandare cosa accade se la media la facciamo su un numero più elevato di
campioni in ingresso, costruendo il sistema

(3.86)
1
0
1
N
i i k
k
y x
N
÷
÷
=
= ·
¿


Consideriamo per esempio un sistema MA di ordine 9, con tutti i 10 coefficienti eguali
a 0.1. Ecco i relativi diagrammi:

102

Figura 3-6


Figura 3-7


e Nyquist:
103


Figura 3-8


Si noti che è un più “pesante” passa basso, ma presenta delle “risonanze” che
potrebbero essere fastidiose.




3.9.3 Due sistemi MA del primo ordine in cascata: MA del secondo
ordine

Se poniamo due sistemi in cascata (o “in serie”), la funzione di trasferimento è data dal
prodotto delle due funzioni di trasferimento. Se abbiamo due sistemi MA del primo ordine in
cascata, con ( )
(1) (1) (1) 1
0 1
B z b b z
÷
= + · e ( )
(2) (2) (2) 1
0 1
B z b b z
÷
= + · , abbiamo

(3.87) ( ) ( ) ( ) ( )
(1) (2) (1) (2) (1) (2) (1) (2) 1 (1) (2) 2
0 0 0 1 1 0 1 1
B z B z B z b b b b b b z b b z
÷ ÷
= = + + +

cioè un sistema MA del secondo ordine con coefficienti

(3.88)
(1) (2)
0 0 0
(1) (2) (1) (2)
1 0 1 1 0
(1) (2)
2 1 1
b b b
b b b b b
b b b
=
= +
=


104
Se per esempio mettiamo in cascata due sistemi con
0 1
1 b b = ÷ = , cioè che eseguono la
differenza prima, abbiamo un sistema con
0 2 1
1, 2 b b b = = = ÷ ; questo è un sistema che
esegue la differenza seconda (analoga alla derivata seconda del continuo). Abbiamo:


Figura 3-9

Si noti la pendenza di due decadi per ogni decade di frequenza, doppia che per la differenza
prima.
105

Figura 3-10

e Nyquist


Figura 3-11


106
3.9.4 Sistema AR del primo ordine (reale)

Consideriamo il sistema in cui nell’equazione (3.78) , n=1, m=0 ; abbiamo

(3.89)
0 1 1 i i i
y b x a y
÷
= · ÷ ·

In questo caso la risposta impulsiva è facilmente calcolabile come

(3.90)
( )
0 0
1 0 1
2
2 0 1
3
3 0 1
0 1
...
...
i
i
x b
x b a
x b a
x b a
x b a
=
= ÷ ·
= ·
= ÷ ·
= · ÷


Si vede immediatamente che se
1
| | 1 a > allora il sistema non è stabile (la risposta impulsiva ha
un andamento esponenziale crescente).

Se
1
| | 1 a s il sistema è stabile e, se
1
0 a < , la risposta impulsiva è esponenziale decrescente,
altrimenti è in modulo esponenziale decrescente, ma con segni alternativamente positivi e
negativi. L’andamento esponenziale ha decadimento t dato da

(3.91)
1
1
ln | | a
t = ÷

che, per valori di |a
1
| molto vicini a 1, si può approssimare con

(3.92)
1
1
1 | | a
t ~
÷


Se
1
1 a = ÷ , la risposta impulsiva è un gradino di ampiezza b
0
.

Vediamo ora la risposta in frequenza. Si ha

(3.93) ( ) ( )
0
1
1
j
j
b
F e
a e
·O
÷ ·O
O = =
+ ·
F

Grafichiamo alcuni casi:

-
0 1
1, 0.9 b a = = ÷

107

Figura 3-12


Figura 3-13


108
E il diagramma di Nyquist



Figura 3-14




-
0 1
1, 0.999 b a = = ÷


Figura 3-15
109


Figura 3-16


Figura 3-17



-
0 1
1, 0.9 b a = = . In questo caso si ha

110

Figura 3-18

111

Figura 3-19


e Nyquist


Figura 3-20

- Vediamo ora cosa accade se consideriamo l’inverso del sistema precedente, in cui
semplicemente nella funzione di trasferimento z si è invertito il numeratore col
denominatore. Il sistema era
0 1
1, 0.9 b a = = ; il suo inverso è un sistema MA che ha
0 1
1, 0.9 b b = = ÷ . Ecco i grafici:
112


Figura 3-21


Figura 3-22
113

e Nyquist


Figura 3-23





3.9.5 Sistema AR del primo ordine (complesso)

Se nell’equazione (3.89) il coefficiente a
1
e complesso, formalmente le cose non cambiano: la
risposta impulsiva può essere espressa sempre come in equazione (3.90), ma ora, come
vedremo, siamo in presenza di un’oscillazione smorzata.
Sia

(3.94)
1
j
w a r e
¢ ·
= ÷ = ·

a parte il coefficiente di guadagno b
0
, la risposta impulsiva mostra tutte le potenze di w, da 0 a
infinito; il k-esimo termine è dato da

(3.95)
( )
0 0
k k j k
k
x b w b r e
¢ · ·
= · = · ·

Notiamo che:

- il sistema è stabile se 1 r <
- in tale ipotesi il valore assoluto decresce esponenzialmente
- la fase di w
k
(e quindi di x
k
) cresce proporzionalmente a k, quindi il vettore che
rappresenta nel piano di Gauss il numero complesso x
k
ruota intorno all’origine con
velocità proporzionale a ¢ , riducendosi proporzionalmente di ampiezza. La frequenza
di rotazione è data da
114

(3.96)
0
2
¢
v
t
=

e il tempo di decadimento t è dato da (vedi equazione (3.91))

(3.97)
1 1
ln | | ln w r
t = ÷ = ÷


Consideriamo il caso di
0
1, 0.95, 36 b r ¢ = = = ° . Ecco l’evoluzione nel piano di Gauss


Figura 3-24


La risposta in frequenza è data da

115

Figura 3-25


Figura 3-26
116

Si noti la presenza di una risonanza a frequenza 0.1
36
0.1
360
| |
=
|
\ .
.
Il diagramma di Nyquist è


Figura 3-27



3.9.6 Sistema AR del secondo ordine

Consideriamo il sistema in cui nell’equazione (3.78) , n=2, m=0 ; abbiamo

(3.98)
0 1 1 2 2 i i i i
y b x a y a y
÷ ÷
= · ÷ · ÷ ·

Il denominatore della funzione di trasferimento è

(3.99) ( ) ( ) ( )
1 2 1 1
1 2 1 2
1 1 1 A z a z a z p z p z
÷ ÷ ÷ ÷
= + · + · = ÷ · · ÷ ·

117
dove
1
p e
2
p sono i due poli (soluzioni della
( ) 0 A z = ).
Se i due poli sono complessi coniugati, li possiamo porre come

(3.100)
1,2
j
p r e
u ±
= ·

e quindi

(3.101)
( ) ( ) ( )
1 2 1 2
1 2 1 2 1 2
1 2 2
1 1
1 2 cos
A z a z a z p p z p p z
r z r z u
÷ ÷ ÷ ÷
÷ ÷
= + · + · = ÷ + · + · · =
= ÷ · · · + ·



Se 1 r < il sistema è stabile e, se
1
0 a < , la risposta impulsiva è una sinusoide smorzata
esponenzialmente

(3.102)
( ) ( )
0 0
1 2
cos
2
i i i
i
b
p p b r i q u = · + = · · ·

L’andamento esponenziale ha decadimento t dato da

(3.103)
1
ln r
t = ÷


Grafichiamo il caso in cui
0
1 b = , 0.99,
6
r
t
u = = . Abbiamo

118

Figura 3-28


Figura 3-29-


119
e il diagramma di Nyquist


Figura 3-30





3.9.7 Semplici sistemi ARMA

Come esempi di sistemi di questo tipo prendiamo i seguenti:

- sistema passa-alto (ARMA[1,1]), con funzione di trasferimento

(3.104) ( )
1
1
1
1
z
F z
w z
÷
÷
÷
=
÷ ·



derivato dal passa-basso.
Per w=0.9 si ha

120

Figura 3-31


Figura 3-32


121
Diagramma di Nyquist

Figura 3-33

- risonanza passa-banda (ARMA[2,1]), con funzione di trasferimento

(3.105) ( )
1
1 2 2
1
1 2 cos
z
F z
r z r z u
÷
÷ ÷
÷
=
÷ · + ·


derivato dall’AR del secondo ordine.
Per 0.99,
60
r
t
u = = si ha

122

Figura 3-34


Figura 3-35

123

Figura 3-36

124
3.10 Sistemi non-lineari – i sistemi di Volterra

Facciamo un breve cenno ai sistemi non-lineari, una categoria cosi’ vasta che non esistono
metodi di analisi generali (a parte cose piuttosto generiche).

Ci limiteremo a quelli che sono considerati il primo passo della non-linearita’: i sistemi di
Volterra del secondo ordine (i sistemi di Volterra del primo ordine sono semplicemente i
sistemi lineari discreti). Essi sono descritti dall’equazione

(3.106)
0 0 0
i k i k kl i k i l
k k l
y h x q x x
· · ·
÷ ÷ ÷
= = =
= · + · ·
¿ ¿¿


come si vede, oltre al membro lineare presente già nella (3.5), ce ne è un altro quadratico.

Si trova che nel dominio trasformato si ha

(3.107) ( ) ( ) ( ) ( ) ( ) ( )
1 1 1 1 1
1
,
2
Y H X Q X X d e e e e e e e e e e
·
÷·
= · + · ÷ · · ÷ ·
}




125
4 Segnali transitori

4.1 Energia, posizione e lunghezza di un segnale transitorio

Un segnale transitorio (detto anche transiente o impulsivo) è un segnale che va a zero per il
tempo tendente all’infinito in entrambi i sensi. Chiamiamo energia del segnale, la grandezza
w
E

- Caso continuo, segnale ( ) w t

(4.1) ( )
2
w
E w t dt
·
÷·
= ·
}


- Caso discreto, segnale
i
w

(4.2)
2
w i
i
E w
·
=÷·
=
¿



e supporremo inoltre che sia E finito.

È spesso comodo definire la “posizione” e la “lunghezza” (o “durata”) di un segnale
parametri analoghi al valor medio e alla deviazione standard delle distribuzioni di probabilità :

- Caso continuo, segnale ( ) w t

(4.3)
( )
2
w
w
w t
posizione t t dt
E
·
÷·
= = · ·
}


(4.4) ( )
( )
2
2
w w
w
w t
lunghezza l t t dt
E
·
÷·
= = ÷ · ·
}




- Caso discreto, segnale
i
w

(4.5)
2
i
w
i
w
w
posizione t i
E
·
=÷·
= = ·
¿



126
(4.6) ( )
2
2
i
w w
i
w
w
lunghezza l i t
E
·
=÷·
= = ÷ ·
¿


Se il segnale w è reale positivo, sono spesso più comode le definizioni di posizione e durata
analoghe alle precedenti, ma che utilizzano ( ) w t o, nel caso discreto,
i
w (normalizzate con
il loro integrale o somma) invece che i loro moduli quadri.
Facciamo due esempi.

Prendiamo il segnale “gaussiano”

(4.7)
( )
2
2
exp
2
t
w t A
o
| |
= · ÷
|
·
\ .


Se prendiamo quest’ultima definizione di larghezza, abbiamo che la larghezza è o . Con la
definizione precedente abbiamo

( )
2
2 2
2
2
2 2
exp exp
2
t t
w t A A
o o
| | | |
= · ÷ = · ÷
| |
·
\ . \ .

e quindi

(4.8)
2
w
l
o
=
cioè un valore più piccolo.

Si noti che col nostro concetto di lunghezza o durata, funzionerebbe meglio 2 o · .

Prendiamo ora un segnale pari a 1 durante il periodo da 0 a T e nullo altrove. In questo caso
le due definizioni danno lo stesso valore, ma non quello che ci piacerebbe, cioè T, ma
12
T
.


127
4.2 Convoluzione, cross-correlazione e distanza di due impulsi

Dati due impulsi x
i
e y
i
, possiamo calcolare alcune utili parametri e funzioni
22
:


- il prodotto vettoriale, detto anche cross-energia

(4.9)
*
xy i i
i
r x y
·
=÷·
= ·
¿



- la distanza

(4.10)
2
xy i i
i
d x y
·
=÷·
= ÷
¿



- la convoluzione,

(4.11)
k k i i
i
y x y
·
÷
=÷·
= ·
¿


che già conosciamo.


- la correlazione

(4.12) ( )
*
xy k i i
i
R k x y
·
+
=÷·
= ·
¿






22
Qui vengono date le espressioni per dati discreti. Analoghi concetti sono sviluppati nel caso continuo.
128
4.3 Trasformata di Fourier di un segnale ad energia finita

Data la condizione (4.1), un segnale transitorio, o impulso, può essere Fourier-trasformato

(4.13) ( ) ( )
j t
W w t e dt
e
e
·
÷
÷·
= · ·
}


Vale ovviamente il teorema di Parseval per cui

(4.14) ( ) ( ) ( )
2 2 2 1
2
2
w t dt W d W d e e t v v
t
· · ·
÷· ÷· ÷·
· = · = · ·
} } }


dove
2
e
v
t
= è la frequenza.

Nel discreto, usando la DTFT (la trasformata discreta di Fourier), abbiamo

(4.15) ( )
j i
i
i
W w e
·
÷ ·O·
=÷·
O = ·
¿


(ricordiamo che t e O= · A è la pulsazione normalizzata).
Il teorema di Parseval nel discreto diventa

(4.16) ( )
2
2 2
0
1
2
i
i
w W d
t
t
·
=÷·
= O · O
¿
}


Analogamente a come abbiamo fatto per w(t), possiamo definire posizione e larghezza per
( ) W O . Sia
W
L la larghezza di ( ) W O ; si ha

(4.17)
1
2
w W
l L · >

L’eguaglianza vale se

(4.18) ( )
2
2
exp
4
w
t
w t A
l
| |
= · ÷
|
·
\ .


In tal caso la trasformata di Fourier è

(4.19) ( ) ( )
2 2
2 exp
w w
W A l l e t e = · · · ÷ ·

e quindi

(4.20)
1
2
w W
l L · =
129

q.e.d..

Attenzione ! Se il segnale è reale, la trasformata di Fourier è una funzione hermitiana e
quindi ( )
2
W e , che è usata per calcolare la larghezza, è simmetrica rispetto all’origine.
Questo fa si che, nel caso di w(t) “a banda stretta”, la larghezza di ( ) W e sia molto più
grande di quella che sarebbe se si considerassero solo le frequenze positive. Se, per i
segnali reali, si considerano le sole frequenze positive, si ricava una nuova relazione di
“indeterminazione”

(4.21)
1
2
w W
l L · >

dove
w
l è lo stesso, ma
W
L (anche molto) più piccolo, che è molto più “pregnante”.

Facciamo come esempio

(4.22)
( ) ( )
2
0 2
exp cos
4
w
t
w t A t
l
e
| |
= · ÷ · ·
|
·
\ .


la cui trasformata (vedi (2.22)) è proporzionale a

(4.23)
( ) ( )
2 2
0 0
2 2
exp exp
4 4
W W
e e e e
| | | |
+ ÷
÷ + ÷ | |
| |
· A · A
\ . \ .


con
1
2
W
w
l
A =
·
. Se
0 W
e A << , il calcolo su tutte le frequenze porta a
0 W
L e ~ e quindi
1
2
w W
l L · ; se ci si limita alle frequenze positive invece
W W
L ~ A e quindi
1
2
w W
l L · ~ .


130
4.4 Autocorrelazione e spettro di energia

Se facciamo la correlazione incrociata di un segnale con se stesso, abbiamo l’autocorrelazione

(4.24) ( )
*
x k i i
i
R k x x
·
+
=÷·
= ·
¿



Questa definizione di autocorrelazione per i segnali impulsivi è ovviamente diversa, ma
analoga, dall’autocorrelazione nel caso dei processi stocastici. Come l’autocorrelazione nel caso
dei processi stocastici, gode di varie proprietà:

- è la convoluzione del segnale con se stesso invertito temporalmente (e coniugato, se il
segnale è complesso)
- è simmetrica rispetto a 0
- ha ivi il suo massimo assoluto (e in questo caso in 0 vale 1)
- la sua trasformata di Fourier è sempre positiva (ed è lo spettro di energia)
- la “larghezza” dell’autocorrelazione (definita come in (4.6) e (4.4)) è 2 volte
maggiore della w.


Possiamo definire spettro di energia la trasformata di Fourier dell’autocorrelazione

(4.25) ( ) ( )
j k
x x
k
S R k e
e
e
÷
= ·
¿


essendo ( )
x
R k ricavato dalla (4.24).

Vale il seguente risultato (teorema di Wiener-Kinchin):

(4.26) ( )
2
j k
x k
k
S x e
e
e
÷
= ·
¿







131
4.5 Segnale analitico

La trasformata di Hilbert di un segnale x(t) è definita come

(4.27) ( )
( ) 1
'
x
x t d
t
t
t
t t
·
÷·
= ·
÷
}


e l’antitrasformata è

(4.28) ( )
( ) '
1
x
x t d
t
t
t
t t
·
÷·
= ÷ ·
÷
}


Questa trasformata è in effetti un filtro lineare che ha la proprietà fondamentale che

(4.29)
( ) ( )
( ) ( )
sin cos
cos sin
t t
t t
e e
e e
· ÷ ·
· ÷ ÷ ·


per questo motivo è detta anche filtro di quadratura, che “sfasa” ogni componente
sinusoidale di 90 gradi. Tale filtro ha la funzione di trasferimento

(4.30)
( ) ( )
per 0
per 0
j
H j j sign
j
e
e e
e
÷ > ¦
= ÷ · =
´
<
¹


Se x’(t) è la trasformata di Hilbert del segnale reale x(t), allora definiamo segnale analitico
il segnale

(4.31) ( ) ( ) ( ) '
A
x t x t j x t = + ·

Se ( ) X e è la trasformata di Fourier di x(t), allora la trasformata di Fourier di x
A
(t) è

(4.32) ( )
( )
0 per 0
2 per 0
A
X
X
e
e
e e
< ¦
¦
=
´
· >
¦
¹


La trasformata di Hilbert si può definire anche nel discreto come un filtro di risposta
impulsiva

(4.33)
0 per pari
2
per dispari
i
i
h
i
i t
¦
¦
=
´
¦
· ¹


Vediamo un esempio.
132

Figura 4-1


Come si vede, il valore assoluto del segnale analitico è l’inviluppo del segnale originario.

Ed ecco questo segnale analitico nel piano di Gauss


Figura 4-2
133

134
4.6 Segnali permanenti


Chiamiamo segnale permanente un segnale che non è “localizzato” come un impulso. Per tali
segnali non possiamo definire l’energia (che sarebbe infinita), né la posizione, né la larghezza.

Per trattare questo tipo di segnali useremo la teoria dei processi stocastici. Come vedremo, in
taluni casi (processi stazionari) potremo parlare di un concetto analogo a quello di energia, la
potenza

- Caso continuo, segnale
( ) w t

(4.34) ( )
2 1
lim
2
T
w
T
T
P w t dt
T
÷·
÷
= ·
·
}


- Caso discreto, segnale
i
w

(4.35)
2 1
lim
2
K
w i
K
i K
P w
K
÷·

=
·
¿



Per un segnale impulsivo, la
w
P (che non ha senso calcolare) sarebbe 0.

Analogamente all’autocorrelazione e allo spettro di energia che abbiamo definito per i segnali
transitori, definiremo le analoghe funzioni per i segnali permanenti, autocorrelazione e spettro
di potenza, che possono essere viste come valori medi per unità di tempo.



135
5 Processi stocastici

5.1 Introduzione

5.1.1 Definizione

Ricordiamo la nostra definizione di variabile casuale:

“Una variabile casuale è una variabile (reale o complessa) al cui valore è associata una
distribuzione di probabilità.”

In analogia, possiamo dare la seguente definizione di processo stocastico:

Un processo stocastico è un insieme di funzioni del tempo alle quali è associata una
distribuzione di probabilità.

Ciascuna delle funzioni del tempo viene chiamata realizzazione del processo stocastico.
Mentre il processo stocastico è il modello generale, quello che si può osservare
sperimentalmente è soltanto una realizzazione.

Se le funzioni del tempo sono continue, parliamo di processo stocastico continuo, se sono
discrete di processo stocastico discreto. Nel seguito svilupperemo il formalismo per lo più
per il caso continuo, ma analoghi sviluppi si hanno nel caso discreto (dove, ricordiamo, la
variabile t è discreta).

Per un processo stocastico X(t), possiamo definire la funzione di distribuzione del primo
ordine

(5.1) ( ) ( ) { }
; F x t P X t x = s

da cui la densità

(5.2) ( )
( ) ;
;
F x t
f x t
x
c
=
c


Abbiamo quindi il valor medio (o valore aspettato)

(5.3) ( ) ( ) ( ) ; t E X t x f x t dx µ
·
÷·
= = · · (
¸ ¸ }

e la varianza

(5.4) ( ) ( ) ( ) ( ) ( ) ( ) ( )
2 2
2
; t E X t t x t f x t dx o µ µ
·
÷·
(
= ÷ = ÷ · ·
¸ ¸
}


Per un dato valore del tempo t, un processo stocastico si riduce a una variabile casuale.
136

Si definiscono inoltre, per qualsiasi n>0, le funzioni di distribuzione di ordine n come

(5.5)
( ) ( ) ( ) ( ) { }
1 2 1 2 1 1 2 2
, ,..., ; , ,..., , ,...,
n n n n
F x x x t t t P X t x X t x X t x = s s s

e le relative densità

(5.6) ( )
( )
1 2 1 2
1 2 1 2
1 2
, ,..., ; , ,...,
, ,..., ; , ,...,
...
n
n n
n n
n
F x x x t t t
f x x x t t t
x x x
c
=
c c c


Un processo stocastico è statisticamente definito se sono definite tutte le funzioni di
distribuzione (o di densità) per tutti gli ordini.

Dato un processo stocastico, possiamo crearne uno nuovo facendolo passare attraverso un
opportuno sistema. Il nuovo processo ha in genere caratteristiche differenti da quello di
partenza.


5.1.2 Funzioni del secondo ordine

Consideriamo le funzioni del secondo ordine,

(5.7)
( ) ( ) ( ) { }
1 2 1 2 1 1 2 2
, ; , , F x x t t P X t x X t x = s s

e
(5.8) ( )
( )
2
1 2 1 2
1 2 1 2
1 2
, ; ,
, ; ,
F x x t t
f x x t t
x x
c
=
c c


Si noti che

(5.9) ( ) ( )
1 1 2 1 1
, ; , ; F x t t F x t · =

e
(5.10) ( ) ( )
1 1 1 2 1 2 2
; , ; , f x t f x x t t d x
·
÷·
= ·
}


Possiamo calcolare la densità condizionale come

(5.11) ( ) ( )
( )
( )
1 2 1 2
1 1 2
2 2
, ; ,
; |
;
f x x t t
f x t X t x
f x t
= =

Definiamo autocorrelazione la funzione

(5.12) ( ) ( ) ( ) ( )
1 2 1 2 1 2 1 2 1 2 1 2
, , ; , R t t E X t X t x x f x x t t dx dx
· ·
÷· ÷·
= · = · · · (
¸ ¸ } }

137

e autocovarianza la funzione

(5.13)
( ) ( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( )
( ) ( ) ( )
1 2 1 1 2 2
1 1 2 2 1 2 1 2 1 2
1 2 1 2
,
, ; ,
,
C t t E X t t X t t
x t x t f x x t t dx dx
R t t t t
µ µ
µ µ
µ µ
· ·
÷· ÷·
( = ÷ · ÷ =
¸ ¸
= ÷ · ÷ · · · =
= ÷ ·
} }


la varianza si può ricavare come

(5.14) ( ) ( ) ( ) ( )
2 2
, , t C t t R t t t o µ = = ÷

Se il processo è complesso (cioè se sono complesse le funzioni del tempo), allora


(5.15) ( ) ( ) ( )
*
1 2 1 2
, R t t E X t X t ( = ·
¸ ¸


e

(5.16) ( ) ( ) ( ) ( ) ( ) ( ) ( )
* *
1 2 1 1 2 2
, C t t E X t t X t t µ µ
(
= ÷ · ÷
¸ ¸


In questo caso C ed R sono funzioni complesse. Si noti che è una generalizzazione del caso
reale.

Dall’autocorrelazione ( ) ( ) ( )
1 2 1 1
, , , R t t R t t R t t t t = + = + possiamo ricavare lo spettro di
potenza (spesso chiamato semplicemente spettro) come la trasformata di Fourier

(5.17) ( , ) ( , )
j
S t R t e d
et
e t t
·
÷
÷·
= ·
}


Sebbene lo spettro di potenza contenga esattamente la stessa informazione
dell’autocorrelazione, spesso quest’ultimo è più facilmente interpretabile.

Lo spettro di potenza, più correttamente la densità spettrale di potenza, indica il contenuto
“in potenza” (cioè quadratico) di un segnale. Ne parleremo estesamente in un prossimo
capitolo. Lì discuteremo anche il senso delle frequenze negative.


5.1.3 Il caso di due processi

Supponiamo di avere due processi X(t) e Y(t), che per generalità consideriamo complessi.

138
Possiamo definire la correlazione incrociata
23
(cross-correlation)

(5.18) ( ) ( ) ( ) ( )
* *
1 2 1 2 1 2
, ,
xy yx
R t t E X t Y t R t t ( = · =
¸ ¸


e la covarianza incrociata (cross-covariance)

(5.19) ( ) ( ) ( ) ( )
1 2 1 2 1 2
, ,
xy xy x y
C t t R t t t t µ µ = ÷ ·

Diciamo che i due processi sono scorrelati se

(5.20) ( ) ( ) ( )
1 2 1 2
,
xy x y
R t t t t µ µ = ·

e diciamo che sono ortogonali se

(5.21) ( )
1 2
, 0
xy
R t t =


A partire dalla correlazione incrociata ( ) ( ) ( )
1 2 1 1
, , ,
xy xy xy
R t t R t t R t t t t = + = + , possiamo
definire lo spettro incrociato (cross-spectrum) come

(5.22)
*
( , ) ( , ) ( , )
j
xy xy yx
S t R t e d S t
et
e t t e
·
÷
÷·
= · =
}




5.1.4 Stazionarietà, ergodicità

Diciamo che un processo X(t) è stazionario
24
se le funzioni che lo definiscono sono
indipendenti da uno spostamento nel tempo di qualsiasi ampiezza. Cioè se per qualsiasi T X(t)
e statisticamente indistinguibile da X(t+T). Si ha cioè

(5.23) ( ) ( )
1 2 1 2 1 2 1 2
, ,..., ; , ,..., , ,..., ; , ,...,
n n n n
F x x x t t t F x x x t T t T t T = + + +

e

(5.24) ( ) ( )
1 2 1 2 1 2 1 2
, ,..., ; , ,..., , ,..., ; , ,...,
n n n n
f x x x t t t f x x x t T t T t T = + + +

Ne deduciamo che per un processo stocastico stazionario si ha


23
Detta anche correlazione mutua, intercorrelazione o cross-correlazione.
24
Questa è la definizione di un processo stocastico stazionario “in senso stretto”. Si definisce anche la
stazionarietà “in senso lato”.
139
(5.25)
( )
( ; ) ( )
costante
f x t f x
t µ µ
=
= =


( ) E x t µ = (
¸ ¸
è anche detto cumulante del primo ordine.

ponendo
2 1
t t t = ÷ , abbiamo

(5.26)
( ) ( )
( ) ( ) ( )
( ) ( ) ( )
1 2 1 2 1 2
*
1 2
*
1 2
, ; , , ;
,
,
f x x t t f x x
R t t R R
C t t C C
t
t t
t t
=
= = ÷
= = ÷


( ) ( ) ( ) ( )
*
xx
R R E x t x t t t t ( = = · +
¸ ¸
è, nell’ipotesi che sia ( ) 0 E x t = (
¸ ¸
, anche il
cumulante del secondo ordine ( )
xx
C t .

Notiamo che

(5.27) ( )
2 2
0
xx
R µ o ÷ =

è la varianza del processo.

Lo spettro di potenza in questo caso perde la dipendenza dal tempo e viene definito come

(5.28) ( ) ( )
j
S R e d
et
e t t
·
÷
÷·
= ·
}


Possiamo definire la potenza totale del processo l’integrale totale su tutta la banda di frequenza
(non pulsazione), ottenendo

(5.29) ( ) ( ) ( )
1
0 2
2
R S d S d e e t v v
t
· ·
÷· ÷·
= = ·
} }


Possono definirsi cumulanti di altri ordini, che, nell’ipotesi che sia ( ) 0 E x t = (
¸ ¸
, sono nel
caso del del terzo ordine

(5.30) ( ) ( ) ( ) ( )
*
1 2 1 2
,
xxx
C E x t x t x t t t t t ( = · + · +
¸ ¸


e del quarto ordine

140
(5.31)
( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( ) ( ) ( )
* *
1 2 3 1 2 3
*
1 2 3 2 1 3 3 1 2
, ,
xxxx
xx xx xx xx xx xx
C E x t x t x t x t
C C C C M M
t t t t t t
t t t t t t t t t
( = · + · + · + ÷
¸ ¸
÷ · ÷ ÷ · ÷ ÷ · ÷


dove

(5.32) ( ) ( ) ( )
xx
M E x t x t t t = · + (
¸ ¸


è il momento del secondo ordine (eguale al cumulante del secondo ordine nel caso di
processi reali).

e notiamo che da ( ) 0, 0
xxx
C si ricava il momento del terzo ordine e da ( ) 0, 0, 0
xxxx
C quello
del quart’odine.
Tutti i cumulanti di processi stazionari reali sono simmetrici nei loro argomenti, cioè

(5.33)
( ) ( )
( ) ( ) ( )
( ) ( ) ( ) ( )
1 2 2 1 1 2 1
1 2 3 2 1 3 1 3 2 1 2 1 3 1
, , ,
, , , , , , , ,
xx xx
xxx xxx xxx
xxxx xxxx xxxx xxxx
C C
C C C
C C C C
t t
t t t t t t t
t t t t t t t t t t t t t t
= ÷
= = ÷ ÷
= = = ÷ ÷ ÷



La trasformata di Fourier di ( )
1 2
,
xxx
C t t è detto bispettro e si indica con ( )
1 2
,
xxx
S e e ,

(5.34) ( ) ( )
1 1 2 2
1 2 1 2 1 2
, ,
j j
xxx xxx
S R e e d d
et e t
e e t t t t
· ·
÷ ÷
÷· ÷·
= · · · ·
} }


la trasformata di Fourier di ( )
1 2 3
, ,
xxxx
C t t t è detto trispettro e si indica con ( )
1 2 3
, ,
xxxx
S e e e

(5.35) ( ) ( )
3 3 1 1 2 2
1 2 3 1 2 2 1 2 3
, , , ,
j j j
xxx xxx
S R e e e d d d
e t et e t
e e e t t t t t t
· ·
÷ ÷ ÷
÷· ÷·
= · · · · · ·
} }


Per due processi congiuntamente stazionari (jointly stationary) abbiamo

(5.36) ( ) ( ) ( ) ( )
*
1 2
,
xy xy
R t t R E X t Y t t t ( = = + ·
¸ ¸


Diciamo ergodico un processo in cui le statistiche di insieme sono eguali alle statistiche
temporali. In altre parole possiamo conoscere tutte le proprietà del processo stocastico
osservando la realizzazione effettiva. È intuitivo che un processo non può essere ergodico se
non è stazionario.

La stazionarietà e l’ergodicità possono essere ristrette ad alcune caratteristiche del processo
(per esempio la media, la varianza o l’autocorrelazione).


141

5.1.5 Esempi

Facciamo tre esempi (di processi continui):

1. Consideriamo un processo che contiene 3 funzioni del tempo

( )
( ) ( )
( ) ( )
1
2
3
1
0 Prob.
2
1
sin 2 50 Prob.
4
1
sin 2 100 Prob.
4
x t
x t t
x t t
t
t
= ÷
= · · ÷
= · · ÷


Questo processo stocastico potrebbe essere il modello di un dispositivo elettrico che
con probabilità 0.5 è acceso (e ovviamente con la stessa probabilità è spento) e quando è
acceso può generare con eguale probabilità una sinusoide a 100 Hz o una a 50.

2. Consideriamo un processo che è composto di infinite funzioni del tempo definite da

( ) ( ) sin 10
A
x t A t = · ·

dove A è distribuita uniformemente tra 0 e 2.
Questo processo stocastico potrebbe essere il modello di un oscillatore elettrico che
genera una tensione sinusoidale, con una manopola che ne stabilisce l’ampiezza, e la
manopola può stare in una qualsiasi posizione con la stessa probabilità (ma non può'
essere cambiata di posizione).

3. Consideriamo tutte le possibili funzioni del tempo che possono aversi come uscita di un
contatore di particelle che rivela per esempio raggi cosmici. Anche in questo caso ci
troviamo di fronte a un processo stocastico, anche se è più difficile conoscere la
distribuzione di probabilità delle varie realizzazioni (e in parecchi casi non serve, essendo
sufficienti altre funzioni, più semplici, legate alla distribuzione di probabilità).



5.2 Trasformazioni di processi stocastici

Dato un processo stocastico X, possiamo assegnare secondo certe regole a ciascuna funzione
del tempo x(t) del processo, una funzione y(t), ottenendo un nuovo processo stocastico Y.
Y può essere considerato l’uscita di un opportuno sistema.

Far passare un processo stocastico X attraverso un sistema F significa costruire un nuovo
processo Y in cui tutte le funzioni del tempo x(t) sono sostituite dalle uscite y(t) di F alle x(t).

Consideriamo alcuni casi particolari.

142

5.2.1 Sistema statico (senza memoria)

Sia in tal caso

(5.37)
( ) ( ) ( )
Y t g X t =

Le funzioni di densità del processo Y sono ricavabili con le tecniche di trasformazione delle
variabili aleatorie. Si ha

(5.38)
( )
( )
( ) ( ) ( )
1 2 1 2
1 2 1 2
1 2
, ,..., ; , ,...,
, ,..., ; , ,...,
| ' | | ' | ... | ' |
y n n
y n n
n
f x x x t t t
f y y y t t t
g x g x g x
=
· · ·


con
( )
i i
y g x = .

Per quanto riguarda il valor medio e l’autocorrelazione abbiamo

(5.39) ( ) ( ) ( ) ;
x
E Y t g x f x t dx
·
÷·
= · · (
¸ ¸ }


e

(5.40) ( ) ( ) ( ) ( ) ( ) ( )
1 2 1 2 1 2 1 2 1 2 1 2
, , ; ,
yy x
R t t E y t y t g x g x f x x t t dx dx
· ·
÷· ÷·
= · = · · · · (
¸ ¸ } }


Inoltre, se X è stazionario, anche Y lo è.


5.2.2 Sistema lineare (tempo invariante)

Indichiamo con L l’operatore lineare che descrive il sistema. (vedi (1.10)). Si hanno i seguenti
risultati:

(5.41) ( ) ( ) E Y t L E X t ( = ( (
¸ ¸ ¸ ¸ ¸ ¸


(5.42) ( ) ( )
2
1 2 1 2
, ,
xy t xx
R t t L R t t = (
¸ ¸


(5.43) ( ) ( )
1
1 2 1 2
, ,
yy t xy
R t t L R t t ( =
¸ ¸


Con
2
t
L indichiamo “rispetto alla variabile t
2
”, considerandola variabile corrente e t
1

parametro; analogamente per
1
t
L .

143
Se il processo in ingresso a un sistema lineare tempo invariante è stazionario, lo è anche quello
in uscita.

Nell’ipotesi di stazionarietà, supponiamo di avere un sistema (continuo) definito da una
funzione di trasferimento F(s), ovvero dalla risposta impulsiva f(t). Per il valor medio si ha ha

(5.44)
( ) ( ) ( ) ( ) ( ) 0
Y X X
E Y t E X t f d f d F µ u u u µ u u µ
· ·
÷· ÷·
(
= = ÷ · = · · = · (
(
¸ ¸
¸ ¸
} }




Per calcolare l’autocorrelazione dell’uscita è opportuno calcolare prima la correlazione
incrociata tra l’uscita e l’ingresso:

(5.45)
( ) ( ) ( ) ( )
( ) ( )
* *
( ) ( )
YX
XX
R E Y t X t E x t x t f d
R f d
t t u t u u
t u u u
·
÷·
·
÷·
(
( = · ÷ = ÷ · ÷ · =
(
¸ ¸
¸ ¸
= ÷ ·
}
}


e

(5.46) ( ) ( ) ( )
*
YX XX
R R f d t t u u u
·
÷·
= ÷ · ÷
}



e quindi
(5.47)
( ) ( ) ( ) ( )
( ) ( )
* * *
*
( ) ( )
YY
YX
R E Y t Y t E y t x t f d
R f d
t t t u u u
t u u u
·
÷·
·
÷·
(
( = + · = + · ÷ · =
(
¸ ¸
¸ ¸
= + ·
}
}


Ora, ricordando la proprietà della convoluzione e la definizione di spettro di potenza,
troviamo

(5.48) ( ) ( ) ( )
*
XY XX
S S F j e e e = ·

e

(5.49) ( ) ( ) ( )
2
| |
YY XX
S S F j e e e = ·



Lo stesso risultato per gli spettri possiamo ottenerlo ragionando sul significato di spettro di
potenza e di funzione di trasferimento.
Infatti, in una banda molto piccola intorno a
0
e il segnale è approssimabile con una sinusoide
con una certa ampiezza A e una certa fase; lo spettro di potenza è kA
2
, dove k è una
144
opportuna costante, e indipendente dalla fase. Il passaggio attraverso il sistema lineare
modifica ovviamente tale valore di un fattore ( )
2
0
F je , come descritto dalla (5.49).
Analogamente si può ragionare per la (5.48).



5.2.3 Un caso particolare: il derivatore

Il derivatore, che esegue la derivata di un processo stocastico, spesso detta derivata
stocastica (ovviamente le funzioni che compongono il processo devono essere derivabili).
Abbiamo in questo caso

(5.50) ( )
( )
'
dE x t
E x t
dt
(
¸ ¸
= (
¸ ¸



(5.51) ( )
( )
1 2
' 1 2
2
,
,
xx
xx
R t t
R t t
t
c
=
c


(5.52) ( )
( ) ( )
2
' 1 2 1 2
' ' 1 2
1 1 2
, ,
,
xx xx
x x
R t t R t t
R t t
t t t
c c
= =
c c c


e se il processo è stazionario, con
1 2
t t t = ÷ ,

(5.53) ( )
( )
'
xx
xx
dR
R
d
t
t
t
= ÷


(5.54) ( )
( ) ( )
2
'
' ' 2 2
xx xx
x x
dR d R
R
d d
t t
t
t t
= = ÷





145
5.3 Processi stocastici normali

5.3.1 Proprietà fondamentali

Chiamiamo normale (o gaussiano) un processo stocastico. in cui sono normali le funzioni di
densità di qualsiasi ordine.

Ci sono due motivi per cui i processi stocastici normali sono di grande importanza:

1. Molto spesso fenomeni naturali (e non) sono ben rappresentati da processi stocastici
normali

2. Grazie alle proprietà matematiche che appresso enunceremo, si può' costruire una
semplice ed elegante teoria dei processi stocastici normali, per cui, anche se i fenomeni
di interesse non sono esattamente rappresentabili con processi normali, si preferisce
approssimarli, quando possibile, con essi.

Ecco le due proprietà fondamentali:

PROPRIETÀ I - Per un processo stocastico normale la funzione densità di ordine n
(per qualsiasi n) è determinata se sono note la media ( ) t µ e l’autocorrelazione
( )
1 2
, R t t (o l’autocovarianza ( ) ( ) ( ) ( )
1 2 1 2 1 2
, , C t t R t t t t µ µ = ÷ · ).

Infatti, definita la matrice M di covarianza tra le n ( )
i
x t con elementi

(5.55)
( )
,
ij i j
m C t t =

abbiamo

(5.56) ( )
( )
( ) ( )
1
1 2 1 2
1
, ,..., ; , ,..., exp
2
2 | |
T T
n n
n
f x x x t t t
t
÷
(
÷ · · ÷
( = · ÷
(
¸ ¸
x M x
M
µ µ


dove { }
1 2
, ,...,
n
x x x = x e ( ) ( ) ( ) { }
1 2
, ,...,
n
t t t µ µ µ = µ .


Come sappiamo, una trasformazione lineare di una variabile casuale normale produce una
variabile casuale normale. Analogamente abbiamo che:

PROPRIETÀ II - Una trasformazione lineare di un processo stocastico normale
produce un processo stocastico normale.

Cioè se facciamo passare un processo normale attraverso un sistema lineare, otteniamo in
uscita un processo normale.

Particolarmente semplice e illuminante è lo sviluppo nell’ipotesi stazionaria, che d’ora
in poi sottintenderemo verificata.
146


5.3.2 Il rumore bianco

Il rumore bianco. è un processo stocastico normale stazionario (ed ergodico) definito da

(5.57)
( )
( ) ( )
0 t
R
µ
t o t
=
=


Cioè due valori del processo a due istanti qualsiasi, comunque vicini, sono scorrelati (e
indipendenti: ricordiamo che due variabili casuali normali con correlazione nulla sono
indipendenti).
È immediato vedere che la densità spettrale di potenza è

(5.58) ( ) ( ) ( ) 1
j j
S R e d e d
et et
e t t o t t
· ·
÷ ÷
÷· ÷·
= · = · =
} }


Lo spettro quindi contiene tutte le frequenze, con la stessa ampiezza. Comprendiamo allora il
motivo del nome “bianco”: è in analogia con la luce bianca, che è composta da tutti i colori,
cioè tutte le frequenze (in realtà solo del visibile e non tutte con la stessa potenza)
25
.

Notiamo che il rumore bianco, a parte altre caratteristiche “ideali”, è caratterizzato da potenza
infinita. Ciò per la presenza di potenza a tutte le frequenze. Tutti i sistemi fisici sono limitati in
frequenza, e quindi tutti i segnali fisici, che sono da essi generati, lo sono.

5.3.3 Processi stocastici normali e sistemi lineari

Ricordiamo che un processo stocastico normale è statisticamente definito se è dato il valor
medio e l’autocorrelazione. O, in altre parole, se è dato lo spettro di potenza. Ciò significa che
dal punto di vista statistico due processi stocastici normali che hanno lo stesso spettro sono
statisticamente indistinguibili.

Ciò ci induce a modellare qualsiasi processo stocastico normale come l’uscita di un opportuno
sistema lineare al cui ingresso sia stato posto rumore bianco. Ricordando la (5.49) e la (5.58),
si vede che, se vogliamo modellizzare (o anche simulare) un processo stocastico normale con
spettro ( ) S e , il sistema deve avere una funzione di trasferimento tale che

(5.59) ( ) ( )
2
| | F j S e e =

Ci sono infiniti sistemi che godono della proprietà (5.59): infatti questa relazione impone
vincoli sul modulo della funzione di trasferimento, non sulla fase. Se osserviamo il processo in
uscita, non abbiamo modo di capire quale sia la vera funzione di trasferimento usata. Non così

25
Talvolta si parla di rumore “rosa” per indicare un rumore con spettro abbastanza piatto alle basse frequenze
e praticamente nullo alle alte. Questo, a differenza del rumore bianco, è un rumore “possibile”.
147
se possiamo osservare anche il rumore bianco in ingresso, come possiamo renderci conto
considerando la (5.48).

Abbiamo quindi trovato un modo di rappresentare e possibilmente simulare un processo
normale con un sistema lineare.

Ma le proprietà dei processi stocastici normali e dei sistemi lineari ci permetteranno di
sviluppare semplici soluzioni a una varietà di problemi, come per esempio quello della
rivelazione dei segnali immersi nel rumore.



148
5.4 Processi discreti: processi ARMA

5.4.1 Résumé dei risultati

La teoria dei processi stocastici è stata fin qui sviluppata p.er lo più per i processi continui.
Analoghi sviluppi possono farsi nel caso dei processi discreti. In particolare per quanto
riguarda la teoria dei processi normali e i sistemi lineari, per i processi discreti si ottengono
analoghi risultati considerando sistemi discreti. Sintetizziamo qui i risultati più imporanti.

Analogamente al caso continuo, possiamo definire lo spettro di potenza come la
trasformata di Fourier per dati discreti (vedi (3.42) dell’autocorrelazione ( )
xx
R i

(5.60) ( ) ( )
j i
x xx
i
S R i e
·
÷ · ·O
=÷·
O = ·
¿


e lo spettro incrociato dalla correlazione incrociata ( )
xy
R i

(5.61) ( ) ( )
j i
xy xy
i
S R i e
·
÷ · ·O
=÷·
O = ·
¿


Ovviamente vale la formula di inversione (3.43).

Se invece della pulsazione normalizzata O vogliamo usare quella fisica
t
e
O
=
A
, la densità
spettrale va opportunamente normalizzata

(5.62) ( ) ( ) ' S S t e = O · A

Ciò garantisce la proprietà fondamentale che l’integrale sull’intera banda della pulsazione (
2
t
t
A

nel caso di e , 2t nel caso di O) sia pari alla varianza del segnale moltiplicato 2t . Se
l’integrale viene fatto nella frequenza invece che nella pulsazione, si ha semplicemente la
varianza del segnale.

Consideriamo lo schema seguente:

149

Figura 5-1


In esso , , ,
i i i i
x y v w sono processi stocastici normali discreti.

Dalla (3.57) abbiamo

(5.63)
( )
( )
0
0
i
i
i
i
i
i
F z f z
G z g z
·
÷
=
·
÷
=
= ·
= ·
¿
¿


e quindi

(5.64)
0
0
i k i k
k
i k i k
k
v f x
w g y
·
÷
=
·
÷
=
= ·
= ·
¿
¿


Allora

(5.65)
( ) ( )
* *
0 0
vx i j i k i k j i k xx
k k
R j E v x E f x x f R j
· ·
+ ÷ +
= =
(
( = · = · · = ·
( ¸ ¸
¸ ¸
¿ ¿



(5.66) ( ) ( )
* *
0 0
vv i j i k i k j i k xv
k k
R j E v v E f x v f R j
· ·
+ ÷ +
= =
(
( = · = · · = ·
( ¸ ¸
¸ ¸
¿ ¿


e poiché ( ) ( )
*
xv vx
R j R j = ÷ ,
…..

F(z)
i x
i
x

i x
i
v


G(z)
i x
i
y

i x
i
w

150

e inoltre

(5.67) ( ) ( )
* *
0 0
vy i j i k i k j i k xy
k k
R j E v y E f x y f R j
· ·
+ ÷ +
= =
(
( = · = · · = ·
( ¸ ¸
¸ ¸
¿ ¿

e

(5.68) ( )
vw
R j =

Per passare agli spettri si usa la proprietà della convoluzione e si ha

(5.69) ( ) ( ) ( )
vy xy
S z F z S z = ·


(5.70) ( ) ( ) ( ) ( ) ( ) ( )
1 1
vw vy xy
S z G z S z F z G z S z
÷ ÷
= · = · ·

che comprende come caso particolare (per
i i
x y = e F=G)

(5.71) ( ) ( ) ( )
vx xx
S z F z S z = ·


(5.72) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
1 1 2
| |
vv vx xx xx
S z F z S z F z F z S z F z S z
÷ ÷
= · = · · = ·



5.4.2 Rumore bianco discreto

Anche nel caso discreto possiamo definire il rumore gaussiano bianco.. Esso consiste in una
successione di campioni distribuiti normalmente con valor medio nullo (e spesso si prende con
varianza unitaria).
L’autocorrelazione è

(5.73) ( )
2
j
R j o o = ·

e lo spettro, usando la (3.42), è

(5.74) ( )
2
S o O =

Se vogliamo “lavorare” con le frequenze fisiche, allora

(5.75) ( ) ( )
2
' S S t t e o = O · A = · A


dove 0 2t s O< , ovvero t t ÷ s O< . Come si vede, lo spettro è piatto come nel caso del
rumore bianco continuo, ma la banda del segnale è limitata, quindi, a differenza del rumore
151
bianco continuo, questo non crea paradossi, è fisicamente realizzabile: infatti non è altro che
una successione di valori distribuiti gaussianamente con varianza
2
o , indipendenti.

Si noti come la densità spettrale “fisica” si abbassi proporzionalmente al tempo di
campionamento.

Ecco una realizzazione di rumore bianco discreto (1000 campioni)


Figura 5-2


ed eccone l’istogramma

152

Figura 5-3


e la (stima della) autocorrelazione

153

Figura 5-4



5.4.3 Processi AR, MA e ARMA

Se mettiamo in ingresso a un sistema lineare discreto, di funzione di trasferimento F(z), del
rumore bianco di varianza
2
o , produciamo un processo stocastico normale con media nulla e
spettro di potenza

(5.76) ( ) ( )
2 2
| |
j
S F e o
O
O = ·

Se il sistema è un sistema AR o MA o ARMA, diremo che il processo è rispettivamente AR,
MA o ARMA. Mostriamo ora alcuni casi.


5.4.4 Processo AR del primo ordine (reale)

Consideriamo il caso in cui b
0
=1, a
0
=1, a
1
=-0.99, essendo 1 il tempo di campionamento.. Ecco
i grafici dell’autocorrelazione, dello spettro e 1000 campioni di una realizzazione





154
Autocorrelazione

Figura 5-5



Spettro (in ascissa la frequenza)

Figura 5-6

155

Un pezzo di una realizzazione

Figura 5-7






5.4.5 Processo AR del primo ordine (complesso)

Consideriamo il caso in cui
0 0 1
1, 1, 0.99 exp(- / 20) ( - 0.9778 0.1549) b a a j pi j = = = · · = + ·
essendo 1 il tempo di campionamento. Ecco i grafici dell’autocorrelazione, dello spettro e 1000
campioni di una realizzazione.
Si noti che in questo esempio il tempo di decadimento è lo stesso dell’esempio precedente, ma
abbiamo una risonanza a frequenza negativa, a
1
0.025
40
v = ÷ = ÷ .
Possiamo dire che questo processo è una rotazione oraria di 360/40=9 gradi nel piano di
Gauss del processo reale precedente.






156

Autocorrelazione (la parte immaginaria è punteggiata)

Figura 5-8



Spettro
157

Figura 5-9

Un pezzo di una realizzazione (la parte immaginaria è punteggiata)

Figura 5-10



Parte immaginaria vs reale
158

Figura 5-11



5.4.6 Processo AR del secondo ordine

Consideriamo il caso in cui

2
0 0 1 2
1, 1, 2 0.99 cos -1.7147, 0.9801
6
b a a a r
t | |
= = = ÷ · · = = =
|
\ .

Abbiamo


Autocorrelazione
159

Figura 5-12















Spettro
160

Figura 5-13


Pezzo di dati

Figura 5-14
161
5.5 Processo di Poisson

Analizziamo un altro processo stocastico, di grande interesse non solo in Fisica, il processo di
Poisson, che, come suggerisce il nome, è collegato alla distribuzione di Poisson.

Il problema è quello di modellare un processo fisico che consiste nella generazione di eventi,
tutti eguali, distribuiti in modo uniforme nel tempo.
Un esempio è il decadimento radioattivo di un campione di materiale; gli eventi sono i singoli
eventi rivelati da un contatore. In questo caso il tempo di osservazione deve essere molto più
breve del tempo di decadimento dei nuclei del materiale, altrimenti gli eventi non sono
distribuiti uniformemente nel tempo.
Un altro esempio di interesse fisico è il passaggio di una giunzione da parte di elettroni o
lacune. Questo processo, in cui il numero di eventi è molto grande nell’unità di tempo
26
, è la
causa del rumore shot.

Sebbene si possa definire opportunamente anche nel discreto, il processo di Poisson è un
processo stocastico continuo.

Le funzioni del tempo del processo possono essere la successione di delte di Dirac

(5.77) ( ) ( )
i
i
x t t t o
·
=÷·
= ÷
¿


dove con
i
t si indicano gli istanti di occorrenza degli eventi. Spesso come funzioni del
processo vengono prese le funzioni non decrescenti a valore intero che contano il numero di
arrivi prima del tempo t: in pratica l’integrale della x(t) di (5.77), da 0 a t.

Il processo ha un unico parametro, indicato con ì , che indica la densità degli eventi, cioè il
numero aspettato di eventi nell’unità di tempo. Nel periodo di tempo T si aspetta il numero di
eventi

(5.78) T µ ì = ·

La distribuzione degli eventi in tale periodo è data dalla distribuzione di Poisson

(5.79)
( )
( )
!
k
T
T
P k e
k
ì
ì
÷ ·
·
=

e il numero di eventi in due intervalli disgiunti sono due variabili casuali indipendenti.

Si può calcolare che il tempo t tra due eventi successivi ha densità di probabilità esponenziale

(5.80) ( ) ( )
f u e
ì t
t ì t
÷ ·
= · ·


con valor medio

26
Il passaggio della giunzione non è istantaneo, quindi, se il numero di eventi è elevato, dalla corrente
risultante possono non essere “risolti” i singoli eventi.
162

(5.81) | |
1
E t
ì
=

Non sempre il processo di Poisson con ì costante è un buon modello per processi fisici a
eventi (in cui la cosa importante è il tempo di occorrenza degli eventi, non altre loro
caratteristiche). Ciò perché la densità non è uniforme nel tempo, ma può variare; il processo
cioè è descritto non più dal parametro ì costante, ma dalla funzione del tempo
( ) t ì . In tal
caso possiamo calcolare il numero aspettato di eventi nel periodo
1 2
t t t < < come

(5.82) ( )
2
1
t
t
t dt µ ì = ·
}


e la distribuzione è

(5.83)
( )
( )
2
2
1
1
( )
!
t
t
k
t
t dt
t
t dt
P k e
k
ì
ì
÷ ·
| |
· |
|
}
\ .
=
}







163
6 Analisi statistica dei segnali

Finora abbiamo sviluppato strumenti teorici per descrivere e manipolare segnali.

Passiamo ora alla parte applicativa, cioè, dato un segnale, come ottenere le informazioni di
nostro interesse.
Supponiamo che i nostri dati siano schematizzabili come un processo stocastico stazionario
ed ergodico.
Farne l’analisi significa ricavare informazioni su questo processo, cioè stimare i suoi parametri.
Tali stime vengono eseguite a partire dalla singola realizzazione del processo, l’unica
disponibile; l’ipotesi di ergodicità ci garantisce che ciò sia possibile.
Si ricavano essenzialmente informazioni sulla distribuzione del primo ordine e su quella del
secondo (o meglio, sulle funzioni a questa collegate di autocorrelazione e spettro di potenza).
Nel caso gaussiano ciò esaurisce la descrizione del processo; non nel caso generale.

Prima di far ciò, tuttavia, discuteremo dei problemi connessi alla discretizzazione dei segnali
continui, procedura fondamentale per far uso dei calcolatori digitali.

Bisogna dire che alcune procedure di analisi e di elaborazione dei segnali possono essere
eseguite con l’uso di dispositivi analogici, ma questa alternativa è diventata sempre meno
appetibile con lo sviluppo dei sistemi di elaborazione digitale.

_____________________________________________________

Compiti preliminari dell’analisi del segnale sono:

- determinazione della quantità dei dati da analizzare (ovviamente è ben diverso analizzare
100 numeri o 10
10
, sia per le tecniche, sia per gli obiettivi

- identificare la “dinamica” del segnale in gioco, cioè quale è il presumibile intervallo dei
valori delle ampiezze che potrà prendere

- indagare preliminarmente sulla banda del segnale osservato

- indagare sulla presenza di trend (cioè di tendenze di fondo, per esempio a salire

- indagare sulla stazionarietà del fenomeno che si sta osservando

- indagare sulla presenza di periodicità


Una volta che siano chiariti, anche se in modo non minuzioso, gli interrogativi di questa pre-
analisi, si può procedere ad una corretta acquisizione dei dati e ad analisi più approfondite.



164
6.1 Il campionamento

I segnali prodotti dai processi fisici sono in genere continui. Per analizzarli ed elaborarli con i
calcolatori digitali devono essere campionati. Come possiamo campionarli ? Quali problemi
comporta il campionamento ?

Campionare significa prendere i valori di un segnale continuo a certi istanti temporali che
costituiscono un insieme discreto. Come scegliamo questi istanti ? Una scelta semplice è quella
di prendere gli istanti di tempo equispaziati (campionamento uniforme). Anche così
dobbiamo scegliere la spaziatura, cioè il tempo di campionamento. Per far ciò possiamo
utilizzare il teorema del campionamento.

Ci sono però casi in cui è meglio usare un campionamento non uniforme. Per esempio

- per adattarlo alla variabilità del segnale

- perché non siamo nelle ipotesi del teorema del campionamento, né possiamo mettercisi

- perché una certa analisi è semplificata da un campionamento non uniforme.



6.1.1 Teorema del campionamento

Il problema è questo: se campioniamo un segnale discreto, ne cogliamo tutte le caratteristiche ?
In altre parole, possiamo, a partire dai campioni, ricostruire il segnale originale ?

Il teorema del campionamento, formulato nel 1928 da Nyquist e provato nel 1949 da Shannon,
è il seguente:

Se un segnale reale ha spettro di potenza nullo per frequenze superiori a una data
0
v ,
esso può essere completamente ricostruito se è campionato ad una frequenza

(6.1)
0
2
s
v v > ·

Data una frequenza di campionamento
1
s
s
t
v =
A
, dove
s
t A è il tempo di campionamento, la
frequenza
2
s
N
v
v = è detta frequenza di Nyquist.
Dati i campioni { }
i
x , nell’ipotesi del teorema, possiamo ricavare il segnale originale come

(6.2) ( )
2
sin
2
s
i
i
s
t
i
t
x t x
t
i
t
t
t
·
=÷·
| | | |
÷
| |
A
\ . \ .
= ·
| |
÷
|
A
\ .
¿


165
la funzione ( )
( ) sin t o
o
t o
·
=
·
sinc che compare nella (6.2) , detta funzione interpolante, ha il
seguente andamento

Figura 6-1

ed è la trasformata di Fourier della funzione

(6.3) ( )
1
per
2
0 altrove
t
f t
t t
t
¦
÷ s <
¦
=
´
¦

¹


Osservando la funzione d’interpolazione, notiamo che correttamente essa si annulla nei punti
in cui ci sono altri campioni (infatti a quegli istanti la x(t) è completamente definita dal
campione), ma può stupire che in certi punti sia addirittura negativa: come mai ? Sono delle
correlazioni negative introdotte dal taglio in frequenza.

Notiamo che la (6.2) non è altro che l’uscita di un filtro passa-basso “perfetto”, con funzione
di trasferimento

(6.4) ( )
1 per
0 altrove
N N
F j
t v e t v
e
÷2 · s < 2 · ¦
=
´

¹



al cui ingresso sia stato posto il segnale

166
(6.5) ( ) ( )
i s
i
x t x t i t o
·
=÷·
= · ÷ · A
¿





6.1.2 Aliasing e filtri anti-aliasing

Che succede se si campiona con un tempo di campionamento che non rispetta la condizione
posta dall’equazione (6.1) del teorema del campionamento ?

Ciò che succede è che le frequenze più elevate di
2
s
N
v
v = , frequenza di Nyquist, si
“mascherano” da frequenze inferiori a
N
v . Questo fenomeno viene detto con termine inglese
aliasing.

In figura sono mostrate due sinusoidi, una a frequenza
1
5
Hz v = (la frequenza di
campionamento è 1) e una a
'
4
5
s
Hz v v v = ÷ = .


Figura 6-2

Si vede che le due sinusoidi condividono esattamente gli stessi campioni, anche se la sinusoide
a più bassa frequenza ha 5 campioni a periodo, quella a più alta 1.25 campioni (meno dei 2
prescritti dal teorema del campionamento.

In genere una frequenza

167
(6.6)
1 1
essendo
s s
N v v v v v = · + <

si “maschera” da
1
v se
1
2
s
v
v < , altrimenti si maschera da
1 s
v v ÷ , o, più correttamente, da
1
v ÷
.

Il fenomeno dell’aliasing è ben noto nella vita pratica. Per esempio è dovuto all’aliasing il fatto
che a volte nei film le ruote delle carrozze sembrano girare al contrario (un film è infatti una
successione di immagini campionate, in genere a 24, 25 o 30 Hz, se i raggi delle carrozze
hanno tra di loro un angolo o e tra un fotogramma e l’altro la ruota gira di un po’ più di
2
o
,
questa appare girare al contrario. Accelerando, apparirà girare nel verso giusto, ma più
lentamente, quindi di nuovo nell’altro verso e così via.
Ci sono usi pratici importanti dell’aliasing, per esempio lo stroboscopio.

Il fenomeno dell’aliasing è in genere dannoso nell’analisi dei segnali perché aumenta il livello
del rumore. Va quindi eliminato o per lo meno limitato, e ciò si fa con opportuni filtri passa
basso, analogici, prima del campionamento, in modo da porsi nelle condizioni del teorema
del campionamento (nessuna componente a frequenze superiori alla frequenza di Nyquist).

Talvolta, data la molto maggiore facilità di realizzazione dei filtri digitali, se si vuole un
campionamento a una frequenza
S
v , si usa un “rozzo” filtro anti-aliasing analogico, una
frequenza di campionamento molto più elevata di quella voluta, quindi un filtro anti-aliasing
digitale “perfetto” che limita il segnale nella banda di Nyquist voluta. Si procede quindi a un
sottocampionamento alla frequenza voluta.

Infine vogliamo ricordare che talvolta l’aliasing nell’analisi dei segnali può essere usato
utilmente, per esempio per abbassare la frequenza di campionamento (vedi il prossimo
paragrafo).


6.1.3 Generalizzazione

Se il segnale ha lo spettro nullo al di fuori di una certa banda B (che non necessariamente
inizia da 0), possiamo teoricamente generalizzare il teorema del campionamento, limitando
la frequenza di campionamento a 2 B · . Ben più difficile è però la procedura di
ricostruzione.

Dato una certa frequenza di campionamento, abbiamo visto che l’asse delle frequenze si
suddivide in bande “aliasate”: se la banda del segnale entra tutta in una di queste bande
aliasate, allora la ricostruzione è semplificata. Ciò però può significare dover scegliere una
frequenza di campionamento abbastanza maggiore di 2 B · .


6.1.4 Il caso dei segnali complessi

168
Se il segnale è complesso, c’è differenza tra le frequenze positive e negative, quindi la banda del
segnale da considerare è doppia. Tuttavia il numero di campioni necessari è la metà, perché
ciascun campione è “doppio” (parte reale e parte immaginaria). Detto in altre parole, abbiamo
il doppio di campioni reali, ma descriviamo una banda doppia: la simmetria rispetto alla
frequenza di Nyquist non c’è.

6.1.5 Rumore di quantizzazione

Quando si digitalizza un segnale continuo, oltre ai problemi relativi al campionamento, si
devono considerare i problemi relativi alla quantizzazione. Il segnale campionato infatti viene
trasformato in un numero intero (e memorizzato come tale) tramite l’uso di un convertitore
analogico-digitale (ADC). Questo numero è il numero che, moltiplicato per una quantità x A
chiamata quanto di conversione, meglio approssima il valore del campione (che è un numero
reale). Se il campione vale x, ricaviamo un valore n tale che

(6.7)
2 2
x x
x n x
A A
÷ < ÷ · A s

Al valore vero x del campione assegneremo il valore “quantizzato” x n x x c = · A = + .

Possiamo schematizzare questo processo come l’aggiunta di un rumore c , detto rumore di
quantizzazione.

Se il segnale
{ }
i
x è schematizzabile con un rumore bianco (cioè i campioni sono indipendenti)
i campioni { }
i
c del rumore di quantizzazione sono indipendenti e distribuiti uniformemente
tra
2
x A
÷ e
2
x A
. La varianza è (vedi eq. (2.90))

(6.8)
( )
2
2
12
x
c
o
A
=

e lo spettro di potenza è (vedi eq. (5.74) e (5.75) )

(6.9) ( )
( )
2
12
x
S t e
A
= · A

costante, indipendente da e .

Si noti che la densità spettrale decresce con l’aumentare della frequenza di campionamento.
Ciò può essere utilizzato per ridurre l’errore di quantizzazione: vediamo come.

La “classe” di un ADC è data dal numero di bit N usati per la conversione, in genere 8 o 12 o
16. Quanto maggiore è il numero di bit, tanto migliore è il convertitore: essendo M il massimo
range coperto dal convertitore, il quanto di conversione è

169
(6.10)
2
N
M
x A =

L’idea è quella di campionare i dati analogici a una frequenza '
S
v molto più elevata di quella
richiesta
S
v , applicare un buon filtro anti-aliasing (in software) e sotto-campionare a
S
v : i
campioni ottenuti ora sono numeri “reali” (non più “interi”), perché l’uscita del filtro e
composta da numeri floating point (a 32 bit, che equivale a circa 24 bit di mantissa, o più se si
lavora in doppia precisione) e avranno un errore di quantizzazione equivalente con spettro
'
S
S
v
v
volte più basso e quindi è come se avessimo

(6.11)
2
' 1
log
2
S
S
v
v
| |
|
\ .


bit di conversione in più.


170
6.2 Caratteristiche statiche – Istogramma, momenti campionari

Una stima della densità del primo ordine (vedi (5.2), che nel caso stazionario si riduce a f(x))
può ottenersi facendo un istogramma dei dati, normalizzato per il numero totale dei dati
utilizzati.

Per fare questo istogramma occorre scegliere bene i bin, che non necessariamente saranno tutti
uguali. Se si usano pochi bin, si hanno informazioni un po’ “rozze” sulla f(x), se se ne usano
troppi, pochi dati andranno nei singoli bin e quindi si avranno grosse fluttuazioni percentuali e
quindi errori.
Notare che solo raramente i dati istogrammati saranno indipendenti: in questo caso il numero
di dati che entrano in un dato bin è distribuito approssimativamente secondo una distribuzione
di Poisson con parametro N p µ = · , essendo p la probabilità che un valore vada nel bin i
oggetto ed N il numero totale dei dati. Ricordiamo che la deviazione standard è o µ = .
In genere i dati sono correlati e la situazione è peggiore.

Un altro modo per avere informazione sulla f(x) è stimarne il valor medio (per esempio con la
media aritmetica), la varianza ed eventualmente i momenti superiori. Anche in questo caso la
convergenza statistica verso il valore vero è rallentata dalla presenza di correlazioni. Per
esempio, per il caso del valor medio, supponiamo che il segnale abbia una autocovarianza
( ) C k e vogliamo stimarne il valor medio facendo la media di n campioni successivi

(6.12)
1
1
N
i
i
x
N
µ
=
=
¿


e la varianza su questa stima è

(6.13) ( )
2
1
1
N
k N
k
C k
N N
µ
o

| |
= · ÷
|
\ .
¿


Nel caso in cui

(6.14) ( )
2
k
C k e
t
o
÷
= ·

abbiamo approssimativamente (per 1 t > )

(6.15)
2 2 '
2
2 1 2 1
1 1
' '
N
N
e e
N
N N N
t
µ
t o o
o
t
÷
÷
| |
| | | · · ÷ · ÷
~ · ÷ = · ÷
| |
\ .
|
\ .


dove '
N
N
t
= è la “lunghezza equivalente” del pezzo di dati. Se ' N è grande, si ha circa

171
(6.16)
2 2 '
2
2 1 2 1
1 1
' '
N
N
e e
N
N N N
t
µ
t o o
o
t
÷
÷
| |
| | | · · ÷ · ÷
~ · ÷ = · ÷
| |
\ .
|
\ .










172
6.3 Autocorrelazione

La definizione di autocorrelazione di un processo stocastico è data dalla (5.12), che nell’ipotesi
stazionaria diventa

(6.17) ( ) ( ) ( ) ( )
* *
1 2 1 2 1 2
, ; R E X t X t x x f x x dx dx t t t
· ·
÷· ÷·
( = + · = · · ·
¸ ¸ } }


Data la commutatività della moltiplicazione, la parte reale è una funzione pari, la parte
immaginaria (se presente) è dispari.
Inoltre gode delle seguenti proprietà:

a) R(0) è reale ed è il massimo assoluto; possono esserci altri valori di t in cui
( ) ( ) 0 R R t = ,
ma solo se la X è periodica e t è un multiplo del periodo

b)
( ) ( )
*
R R t t = ÷ , quindi la sua trasformata di Fourier è reale

c) La sua trasformata di Fourier è non-negativa. Questa proprietà deriva dalla proprietà di
essere definita positiva, cioè che, comunque presi n numeri arbitrari
1 2
, ,...,
n
a a a ed n
numeri reali
1 2
, ,...,
n
t t t , si deve avere

(6.18) ( )
1 1
0
n n
i l i l
i l
R a a t t
= =
÷ · · >
¿¿


Nel caso discreto la situazione è analoga, ma sostituiamo la variabile continua t con la discreta
k e la densità di probabilità con la distribuzione:

(6.19) ( ) ( ) ( ) ( )
1 2 1 2
1 2
* *
, ;
i i i i
i i
R k E X i k X i x x f x x k
· ·
=÷· =÷·
( = + · = ·
¸ ¸
¿ ¿



Data l’ipotesi di ergodicità, possiamo stimare la ( ) R k sostituendo il valore aspettato della
(6.17) con la media su un pezzo di dati { }
1 2
, ,...,
N
x x x :

(6.20) ( )
*
1
1
N k
i k i
i
R k x x
N k
÷
+
=
= ·
÷
¿


Una diversa stima è

(6.21) ( )
*
1
1
N k
i k i
i
R k x x
N
÷
+
=
= ·
¿


Come si vede, la differenza è nel coefficiente di normalizzazione. Il primo stimatore è non-
distorto (unbiased), ma sui valori di k vicini a N ci sono forti incertezze (fluttuazioni).
173
La seconda stima è chiaramente distorta (il valore aspettato di ( ) R k è inferiore al valor vero
di un fattore
N
N k ÷
, ma così sono ridotte anche le fluttuazioni), ma la (6.21) gode della
proprietà b).

Spesso nell’analisi dei segnali si usa la tecnica di moltiplicare i dati per una “finestra”, cioè dei
pesi opportuni, in genere minori alle estremità. Questa operazione viene detta “finestratura”
(windowing).
La (6.21) si ricava dalla (6.20) tramite una “finestra” a triangolo isoscele detta “finestra di
Bartlett”.

Le procedure (6.20) e (6.21) sono usate raramente, a parte il caso in cui siamo interessati solo
a un piccolo sottoinsieme dei ritardi k. Ciò perché il calcolo è molto pesante (abbiamo
2
/ 2 N
moltiplicazioni ed addizioni). Esse (o meglio la (6.21)) vengono sostituite dalla seguente
procedura che si avvale della FFT (Fast Fourier Transform, vedi paragrafo 3.4.2).

Consideriamo la successione infinita { }
i
x composta da tutti 0, a parte i valori per i da 1 a N,
pari ai nostri campioni. La stima (6.21) è ottenuta tramite la

(6.22) ( )
*
1
i k i
i
R k x x
N
·
+
=÷·
= ·
¿


Ricordiamo che la convoluzione tra le successioni a e b (eq. (3.4)) è

(6.23)
k k i i
i
y a b
·
÷
=÷·
= ·
¿


e si vede quindi che la (6.22) è la convoluzione tra la x invertita temporalmente e la coniugata
della x. Ne segue che, essendo ( ) X O la trasformata di Fourier della successione x,

(6.24) ( ) ( ) ( )
1 2
1
| | R k X
N
e
÷
= ·F

dove con
1 ÷
F indichiamo la trasformata inversa di Fourier. Per eseguire questa procedura ci si
avvale della trasformata di Fourier (per i dettagli, si veda al capitolo sui filtri in frequenza).




174
6.4 Spettro di potenza

Lo spettro di potenza è definito come la trasformata di Fourier dell’autocorrelazione (vedi eq.
(5.17). Nel caso stazionario si ha

(6.25) ( ) ( )
j
S R e d
et
e t t
·
÷
÷·
= ·
}


e, date le proprietà dell’autocorrelazione, è reale e non-negativo. Se inoltre il processo è reale,
lo spettro è una funzione pari.

Si noti che le proprietà dello spettro e dell’autocorrelazione sono analoghe a quelle della
densità di probabilità e della funzione caratteristica.

Mentre l’autocorrelazione deve avere le proprietà (“complicate”) indicate in 6.3, lo spettro ha
l’unica limitazione di essere positivo (o meglio non negativo). In genere comunque data una
funzione non negativa di e , a singolo valore, possiamo costruire un processo stocastico che la
abbia come spettro di potenza.

Per i processi discreti, abbiamo (eq. (5.60))

(6.26) ( ) ( )
j i
i
S R i e
·
÷ · ·O
=÷·
O = ·
¿


essendo O la pulsazione normalizzata; ricordiamo che per avere lo spettro nelle unità
“fisiche”, t e O= · A , e

(6.27) ( ) ( ) ' S S t e = O · A

Se il segnale è reale, la potenza del segnale nella banda di frequenza { }
1 2
, v v è data da

(6.28) ( )
2
1
2 ' 2 S d
v
v
t v v · ·
}


Il fattore 2 deriva dal fatto che per segnali reali non c’è differenza tra frequenze positive e
negative.
Se il segnale è complesso, ( ) ' S e non è pari e bisogna distinguere tra frequenze positive e
negative e quindi ( )
2
1
' 2 S d
v
v
t v v ·
}
è diverso da ( )
1
2
' 2 S d
v
v
t v v
÷
÷
·
}
. Perciò la potenza del segnale
nella banda di frequenza { }
1 2
, v v è data da

(6.29) ( )
2
1
' 2 S d
v
v
t v v ·
}


175
Vogliamo notare che spesso nella fisica sperimentale e nella tecnica, quando i segnali sono
sempre reali e non interessano molto le questioni teoriche, si usa una diversa definizione di
spettro, con le sole frequenze positive e con un valore doppio di quello ottenuto da (5.60).
Questo viene chiamato spettro unilatero. Scompare così lo “scomodo” fattore 2 della (6.28).

Vediamo ora come stimare lo spettro di potenza.

6.4.1 Stimatori spettrali non parametrici

Un modo per stimare lo spettro è quello di stimare l’autocorrelazione con lo stimatore (6.21),
cioè lo stimatore non distorto con la finestra di Bartlett applicata e farne la trasformata di
Fourier.
(Se si usasse la stima (6.20), avremmo una stima spettrale più “scomoda”, con errori più grandi
e, per certe frequenze, con valori negativi. Ciò è dovuto al grosso peso che hanno le
fluttuazioni sui valori estremali).

Questa procedura tuttavia non è usata quasi mai. essa infatti è computazionalmente molto
pesante. Lo stesso risultato lo si ottiene usando la procedura usata per il calcolo veloce
dell’autocorrelazione (escludendo la trasformata inversa). La ripetiamo:

Siano dati N campioni successivi
{ }
1 2
, ,...,
N
x x x . Se ne faccia la trasformata di Fourier (per
dati discreti)
(6.30) ( )
( ) 1
1
N
j i
i
i
X x e
÷ · ÷ ·O
=
O = ·
¿


La stima spettrale è data da
(6.31) ( )
( )
2
X
S
N
O
O =

È questa una conseguenza del teorema di Wiener-Kinchin
27
. La trasformata (6.30) viene
eseguita in modo veloce con la FFT.

Se si vogliono usare le frequenze “fisiche”, con tempo di campionamento t A , ricordiamo che
t e O= · A e

(6.32) ( )
( )
2
X t
S t
N
e
e
· A
= · A

Lo spettro (e la sua stima) è una grandezza statistica: da esso ovviamente non possono
ricavarsi i dati originari e ciò perché si è persa l’informazione di fase delle componenti
armoniche.

Vediamo tre problemi dello stimatore (6.31):


27
In effetti in passato la (6.31) definiva lo spettro di potenza e il teorema di Wiener-Kinchin (noto già,
precedentemente, ad Einstein in una forma un po’ diversa) stabiliva che la stessa informazione si aveva
facendo la trasformata di Fourier dell’autocorrelazione.
176

- La risoluzione spettrale

Per come è costruita la stima spettrale, notiamo che la risoluzione in frequenza della stima
spettrale, dipende dalla lunghezza del pezzo di dati. Se abbiamo N campioni, essa è,
convenzionalmente, in unità della frequenza fisica,

(6.33)
1
N t
v A =
· A


Discuteremo meglio questo argomento quando avremo introdotto il concetto di finestra.


- Problema del finestramento

La stima è fatta su un pezzo di dati non infinito (come dovrebbe essere in teoria), ma di
lunghezza finita. Questo può essere visto come il prodotto della successione infinita per una
finestra “rettangolare” (boxcar in Inglese)
28


(6.34)
1 per 1
0 altrove
i
i N
w
s s ¦
=
´

¹


Ora sappiamo che la trasformata di Fourier del prodotto di due funzioni è pari alla
convoluzione delle trasformate delle due funzioni, quindi la stima spettrale data dalla (6.31)
“smussa” lo spettro vero: cioè è come se ci si passasse sopra un passa basso simile a quello di
equazione (3.86) (in effetti la risposta in fase è diversa).
Questo smussamento può essere particolarmente fastidioso (se si vuole stimare spettri con
rapide variazioni). Si riduce il problema usando una finestra non rettangolare.
Lo stimatore è quindi così costruito:

(6.35) ( )
( )
2
1
1
2
1
N
j i
i i
i
N
i
i
w x e
S
w
÷ · ÷ ·O
=
=
· ·
O =
¿
¿


La successione { }
i
w è la “finestra”. In genere vale 1 (il valore massimo) per i valori centrali, è
simmetrica e si riduce agli estremi.

Una finestra molto usata è la finestra che prende il nome da Von Hann
29
(detta anche hanning
window) è la seguente


28
La presenza di questa finestra sui dati temporali implica la finestra di Bartlett sull’autocorrelazione:
l’autocorrelazione di una funzione rettangolare è una funzione triangolare isoscele.
29
Julius Von Hann (1839-1921), metereologo austriaco. Blackmann e Tukey hanno dato il suo nome a questa
finestra.
177
(6.36)
( ) 2 / 2
1 cos
2
i
i N
N
w
t · ÷ | |
+
|
\ .
=

Ecco la finestra di Von Hann normalizzata per
2
1
N
i
i
w
=
¿
(100000 punti):


Figura 6-3

Vediamo ora l’effetto della finestra. Nel grafico sono riportate le stime spettrali per il caso di
una sinusoide di frequenza 0.1, eseguite con la finestra di hanning e con la finestra rettangolare
(o “boxcar”, cioè’ usando semplicemente la (6.31)):


Figura 6-4
178

Lo spettro “ideale” del segnale sarebbe una delta a frequenza 0.1. In effetti invece vediamo un
picco con dei lobi laterali (artefatti causati dalla finestratura dei dati).
Notiamo che l’aver introdotto la finestra di Von Hann ha ridotto la risoluzione (di circa un
fattore 2; ma questo in genere non è un problema, infatti se occorre una migliore risoluzione
basta prendere un pezzo più lungo di dati), ma ha ridotto di parecchio l’ampiezza dei lobi
laterali.

Nella figura seguente rappresentiamo le stime spettrali con le due finestre di un segnale
composto di due sinusoidi (una 100 volte più piccola dell’altra)


Figura 6-5

Si nota che i lobi laterali della finestra rettangolare nascondono completamente il picco più
piccolo, perfettamente visibile invece con la finestra di Von Hann.

Sono state studiate numerose finestre, con proprietà diverse. Quale utilizzare dipende dal tipo
di dati che si hanno.

Un ultimo esempio: la finestra triangolare (confrontata con quella di hanning)

179

Figura 6-6


Si noti che i lobi laterali sono più ampi, ma c’è una risoluzione (ed un’ampiezza di picco)
leggermente migliore. I lobi poi hanno una larghezza doppia.

Infine torniamo al concetto di risoluzione: introdurre una finestra (anche la rettangolare, che
spesso è una “finestra involontaria”) significa “smussare” lo spettro col modulo quadro della
trasformata di Fourier della finestra. Se lo spettro è ( ) S e e se la finestra w(t) ha trasformata
di Fourier ( ) W e , il valore aspettato dello spettro “finestrato” è

(6.37) ( ) ( ) ( )
2
w
S k S W e e e = · ©

dove k è una costante di normalizzazione.

Se prendiamo il segnale di più alta risoluzione possibile nello spettro, una delta spettrale, cioè
una sinusoide nel tempo, possiamo definire la risoluzione come la larghezza con cui è visto
questo segnale (per esempio la larghezza a mezza altezza; definizioni migliori per la risoluzione
possono farsi, per esempio, conoscendo il rapporto segnale-rumore). Questo non è
approssimativamente che il modulo quadro della trasformata di Fourier della finestra (a parte
una costante moltiplicativa e una traslazione).
Ecco il grafico, in scala logaritmica, per le finestre rettangolare e hanning

180

Figura 6-7


ed ecco lo stesso grafico in scala lineare


Figura 6-8


Da questo vediamo che la risoluzione (col metodo della larghezza a mezza altezza) è circa 1.5
volte peggiore nell’hanning.



181
- Incertezza della stima

Un problema dello stimatore (6.31) o di quello (6.35) è che l’incertezza della stima è molto
elevata, e, soprattutto, non si riduce con l’aumentare della lunghezza del pezzo di dati.

Per evidenziare la cosa, supponiamo che il nostro segnale sia una successione correlata di
campioni gaussiani normalizzati, cioè un rumore bianco con densità spettrale
( ) 1 S O = .

Per semplicità usiamo lo stimatore (6.31). La trasformata di Fourier è data da

(6.38) ( )
( )
( ) ( ) ( ) ( )
1
1 1 1
cos 1 sin 1
N N N
j i
i i i
i i i
X x e x i j x i
÷ · ÷ ·O
= = =
O = · = · ÷ · O + · · ÷ · O
¿ ¿ ¿


Consideriamo il pezzo ( ) ( )
1
cos 1
N
i
i
x i
=
· ÷ · O
¿
. Per ogni valore di O abbiamo la somma di N
numeri casuali ( ) ( )
cos 1
i
x i · ÷ · O che hanno media 0 e varianza
1
2
. Per il teorema del limite
centrale quindi il valore della sommatoria è una variabile normale con media nulla e varianza
2
N
. Lo stesso può dirsi dell’altra sommatoria con i seni. ( )
2
X O è una variabile casuale
ottenuta dalla somma dei quadrati di due variabili gaussiane: ha quindi distribuzione
esponenziale
30
, con valore aspettato N. Poi, poiché per la stima dello spettro, il modulo quadro
della trasformata di Fourier va divisa per N, abbiamo che la distribuzione dei valori dello
spettro è esponenziale con media 1. (Ricordiamo che ci aspetteremmo semplicemente 1).

Ecco un pezzo dello spettro di questo genere


30
La distribuzione esponenziale, a parte un coefficiente di normalizzazione, è la distribuzione del
2
_ con 2
gradi di libertà (vedi (2.93). In essa la deviazione standard è uguale al valore aspettato. La probabilità di avere
valori superiori di x è
x
P e
µ
÷
= . (Vedi pagina 43)
182

Figura 6-9


Si noti che ci aspetteremmo una linea costante a 1 (linea rossa). L’istogramma delle ampiezze
spettrali è


Figura 6-10


183
Si noti che la distribuzione è esponenziale (una retta in plot semilog).


Attenzione ! la situazione non cambia minimamente con l’aumentare del numero di
campioni.

Col numero dei campioni invece aumenta il numero di punti indipendenti dello spettro
(la risoluzione).

Notiamo inoltre che la distribuzione esponenziale ha code abbastanza pesanti, cioè valori di
probabilità elevate anche per alti rapporti critici
31
. Per esempio, per CR=3 abbiamo
( )
4
4 0.0183 P x e
÷
> = = .

Per ridurre quindi le fluttuazioni, possiamo operare in due modi:

- smussare la stima spettrale con un opportuno filtro passa-basso

- ricavare varie stime spettrali del tipo (6.31) o (6.35) da pezzi di dati indipendenti e
farne la media.

Quest’ultima è la procedura più usata (in genere è più comodo fare FFT più corte).

Avendo a disposizione un pezzo di M N · campioni, lo stimatore più generale è quindi

(6.39) ( )
( )
( )
2
1
1
1
2
1
1
1
N
j i
i i k N
M
i
N
k
i
i
w x e
S
M
w
÷ · ÷ ·O
+ ÷ ·
=
=
=
· ·
O = ·
¿
¿
¿


La scelta di M (il numero di pezzi) si fa mediando tra la necessità di una buona risoluzione e
quella di una bassa incertezza.

Nell’ipotesi che abbiamo fatto in precedenza, di rumore bianco e finestra rettangolare, la
distribuzione aspettata è una distribuzione del
2
_ normalizzata (a valore aspettato 1) con 2M
gradi di libertà.

Ecco il grafico di un pezzo di spettro stimato con finestra rettangolare ed M=10.


31
Ricordiamo che il rapporto critico (critical ratio) è definito come
x
CR
µ
o
÷
= .
184

Figura 6-11


ed ecco l’istogramma


Figura 6-12
185

Ed ecco con M=100:


Figura 6-13

e la distribuzione è


Figura 6-14

186
Nel caso di finestrature non rettangolari, è ragionevole che i pezzi siano interallacciati. Infatti le
parti iniziali e finali di ciascun pezzo contribuiscono molto poco al valore spettrale:
l’interallacciamento (per esempio a metà) fa sì che tutti i dati siano considerati.


187
6.4.2 Stimatori spettrali parametrici

Un modo alternativo di stimare lo spettro di potenza di un segnale è scegliere un modello che riteniamo
adeguato e stimarne i parametri, quindi calcolare lo spettro di potenza del modello con quei parametri.

Uno dei modelli più usati è il modello AR, detto anche “a massima entropia”, perche’ presuppone un
andamento asintotico esponenziale dell’autocorrelazione, che corrisponde alla massima entropia.

Facciamo un esempio:

- riteniamo che un certo segnale che stiamo misurando sia adeguatamente modellizzato da un processo
AR di un certo ordine:

(6.40)
0 1 1 2 2
...
i i i i n i n
y b x w y w y w y
÷ ÷ ÷
= · + · + · + ·

Ora moltiplichiamo il membro a destra e a sinistra per
i k
y
÷
, con k > 0, e prendiamone il valore
aspettato. Poiché ( ) 0
xy
R k = per k > 0, si ha

(6.41) ( ) ( ) ( ) ( )
1 2
1 2 ...
yy yy yy n yy
R k w R k w R k w R k n = · ÷ + · ÷ + · ÷

e, prendendo tutti i 1 k n s s e indicando ( )
k yy
r R k = , abbiamo

(6.42)
0 1 1 1 1
1 0 2 2 2
1 2 0
n
n
n n n n
r r r w r
r r r w r
r r r w r
÷
÷
÷ ÷
| | | | | |
| | |
| | |
· =
| | |
| | |
\ . \ . \ .


Queste sono le equazioni di Yule e Walker. Con esse si possono ricavare i coefficienti del
modello AR dai valori dell’autocorrelazione.
La matrice simmetrica che compare viene detta matrice di Toeplitz e il sistema viene risolto
con l’efficiente algoritmo di Levinson e Durbin.

Se nelle (6.42) mettiamo, al posto dei valori dell’autocorrelazione, delle loro stime, possiamo
stimare i valori dei parametri
i
w del modello AR(n). Da questi lo spettro viene stimato (vedi
(3.60)) come

(6.43) ( ) ( )
2 2
2
2 0
2
1
1
j x
y
x
n
j k
k
k
b
S F e
w e
o
o
·O
÷ ·O·
=
·
O = · =
÷ ·
¿


Questo tipo di stima spettrale viene implementata in vari modi, a seconda di come viene
eseguita la stima dell’autocorrelazione o risolto il sistema (6.42).

Gli stimatori spettrali parametrici sono particolarmente buoni ed efficienti se il modello usato è
a) aderente ai dati, b) non ha un numero troppo elevato di parametri.
188

189
6.5 Cross-correlazione e cross-spettro

La correlazione incrociata (o cross-correlazione o anche intercorrelazione) tra due
processi stocastici stazionari X e Y è data da

(6.44) ( ) ( ) ( )
*
XY
R E X t Y t t t ( = + ·
¸ ¸


La trasformata di Fourier di
( )
XY
R t , indicata in genere con
( )
xy
S e , è detta cross-spettro
o spettro incrociato di potenza.

Una funzione di autocorrelazione non ha le simmetrie e limitazioni di forma
dell’autocorrelazione. Così il cross-spettro può assumere valori negativi o anche complessi.

Nel caso di processi ergodici, si può eseguire una stima di
( )
XY
R t con

Data l’ipotesi di ergodicità, possiamo stimare la
( )
XY
R t sostituendo il valore aspettato della
(6.44) con la media su due pezzi di dati
{ }
1 2
, ,...,
N
x x x e
{ }
1 2
, ,...,
N
y y y

(6.45) ( )
*
1
1
N k
xy
i k i
i
R k x y
N k
÷
+
=
= ·
÷
¿


Una diversa stima è

(6.46) ( )
*
1
1
N k
xy
i k i
i
R k x y
N
÷
+
=
= ·
¿



Per quanto riguarda la stima del cross-spettro, questa può' ottenersi come trasformata di
Fourier di una stima della cross-correlazione, o tramite l’uso del teorema di Wiener-
Khinchin, per esempio nel modo seguente.

Si dividono i dati disponibili per ciascun processo in M pezzi di N dati. Si calcola quindi

(6.47) ( )
( )
( )
( )
( ) 1 1 *
1 1
1 1
2
1
1
1
N N
j i j i
i i i k N i k N
M
i i
xy
N
k
i
i
w x e w y e
S
M
w
÷ · ÷ ·O ÷ · ÷ ·O
+ ÷ · + ÷ ·
= =
=
=
| | | |
· · · · ·
| |
\ . \ .
O = ·
¿ ¿
¿
¿


La scelta di M (il numero di pezzi) si fa mediando tra la necessità di una buona risoluzione e
quella di una bassa incertezza.



190
6.6 Coerenza

Lo spettro di potenza incrociato, come la cross-correlazione, è una misura della similarità
di due processi. La coerenza (coherence) è una forma normalizzata del cross-spettro. La
possiamo definire
32
come

(6.48)
( )
( )
( ) ( )
xy
xy
x y
S
C
S S
O
O =
O · O


La stima della coerenza si fa con

(6.49)
( )
( )
( ) ( )
xy
xy
x y
S
C
S S
O
O =
O · O


Attenzione però. Le stime vanno fatte con equazioni come la (6.47) e la (6.39), con un
valore di M abbastanza elevato. Per M=1 la (6.49) dà 1.


32
Talvolta la coerenza viene definite come il quadrate della presente definizione.
191
7 Filtraggio e trasformazione dei dati

7.1 Segnali e rumori, rapporto segnale/rumore

Il tipico problema di misura è il seguente:

Siamo interessati a stimare un segnale x(t) (o la sua trasformata ( ) X e ), ma possiamo
osservare y(t) che

- contiene una trasformazione x’ di x

- contiene addizionato un altro segnale non desiderato

Supporremo che la trasformazione del segnale x sia lineare e descritta da un sistema F, e che il
segnale non desiderato aggiuntivo (che chiamiamo rumore) sia un processo gaussiano
descritto da uno spettro

(7.1) ( ) ( )
2
0 n
S S N e e = ·

dove
0
S è una costante e N è uno degli infiniti sistemi che risolvono l’equazione (7.1).

La situazione è descritta, nel dominio trasformato, dall’equazione


(7.2) ( ) ( ) ( ) ( )
0
Y X F S N e e e e = · + ·


Mostriamo lo schema di questo processo


Figura 7-1

F
N
X
S
0

Y


( )
n
S ω



X’
192


Nell’ipotesi che il rumore non esista (o sia trascurabile) il problema si riduce a trovare il
sistema inverso di F (se questo è invertibile) o una sua buona approssimazione.

Più complessa (e praticamente interessante) è il caso in cui il rumore non sia trascurabile.

Distinguiamo tre casi particolarmente interessanti:

1. il segnale x(t) ha una forma nota,

(7.3) ( ) ( )
0
x t t A w t ÷ = ·

e va individuata la sua presenza, e stimati il tempo di occorrenza
0
t e l’ampiezza A..
Questo è il problema della rivelazione (detection) . In tal caso si definisce rapporto
segnale/rumore (SNR – signal-to-noise ratio) il rapporto tra il massimo del segnale x e la
deviazione standard del rumore

(7.4)
( ) ( )
max
n
x t
SNR
o
=

2. il segnale x(t) è un processo stocastico che vogliamo stimare. In questo caso possiamo
definire SNR il rapporto tra la deviazione standard del segnale e quella del rumore
33


(7.5)
x
n
SNR
o
o
=

3. il segnale x(t) è un processo stocastico di cui vogliamo stimare uno o più parametri (per
esempio il valor medio e/o la varianza). In questo caso ci interessa l’incertezza sulla stima
del parametro. L’SNR può essere in questo caso l’incertezza relativa (quando questa ha
senso).


In tutti questi casi ci interessa di ridurre l’effetto del rumore. Un altro modo di dire ciò è
“aumentare il rapporto segnale/rumore”
34
. Ciò però ha senso se la distribuzione del rumore
rimane la stessa dopo la stima (per esempio è e rimane gaussiana). Altrimenti il SNR non è un
buon indice, ciò che conta sono le probabilità, per esempio di avere un falso segnale o di avere
un certo errore di stima o di farsi “sfuggire” segnali non abbastanza ampi.

Problemi come questi si risolvono con la costruzione di particolari sistemi detti filtri, con
particolari caratteristiche. Vedremo in questo capitolo come calcolare i migliori filtri per un
dato scopo e come realizzarli praticamente.




33
Talora si usa come SNR il rapporto delle varianze, cioè il quadrato di questa quantità. Definiremo tale
grandezza rapporto segnale/rumore di potenza (power SNR)
34
Ovviamente non basta ridurre il rumore: ciò si avrebbe, per esempio, semplicemente moltiplicando i dati
per una costante piccola, ma ridurre il rumore non sacrificando l’ampiezza del segnale.
193
7.2 Il filtro adattato

Tratteremo qui il primo caso elencato nel paragrafo 7.1 e cioè il caso in cui il segnale x(t) ha
una forma nota w(t),

(7.6)
( ) ( )
0
x t t A w t + = ·

e va individuata la sua presenza, e stimati il tempo di occorrenza
0
t e l’ampiezza A.. La
soluzione di questo problema viene chiamata filtro adattato (matched filter). Si noti che
ottimizzare la stima di A significa anche ottimizzare il rapporto segnale/rumore, ma non
viceversa (l’ottimizzazione dell’SNR lascia libero un parametro di ampiezza).

Supponiamo inoltre che F=1, cioè x’=x, per cui

(7.7)
( ) ( ) ( )
0
y t A w t t t c = · ÷ +

dove
( ) t c è il rumore.

Possiamo scrivere ciò in forma discretizzata

(7.8)
0
i i i i
y A w c
÷
= · +


e discutere direttamente questo caso.

Ovviamente per definire la forma w abbiamo infinite scelte (ognuna con una diversa
ampiezza); scegliamo quella che “normalizza” l’energia

(7.9)
2
1
k
k
w
·
=÷·
=
¿



7.2.1 Caso del rumore bianco

Supponiamo ora che il rumore sia bianco, quindi gli
i
c sono campioni gaussiani con spettro
( )
2
n
S
c
e o =
.

Cerchiamo il filtro migliore con la tecnica della massima verosimiglianza.

Possiamo scrivere la verosimiglianza ad un dato istante (per semplicità di notazione abbiamo
scelto l’istante 0) come

(7.10) { } ( )
( )
2
2
2
1
;
2
i i
y A w
i
i
L A y e
c
o
c
t o
÷ ·
÷
= ·
·
[

194

e prendendone il logaritmo ed ignorandone la parte costante abbiamo

(7.11) { } ( )
( )
2
2
;
2
i i
i
i
y A w
l A y
c
o
÷ ·
= ÷
¿


Eguagliando la derivata a 0 e sostituendo A per A, si ha

(7.12)
2
2
i i i
i i
i i
i
i i
i
i
i
A w y w
y w
A y w
w
· = ·
·
= = ·
¿ ¿
¿
¿
¿


quindi

(7.13) ( )
0
i i k i k k i k i i k k
k k
A y w y w A w w c
· ·
÷ + + ÷ +
=÷· =÷·
= © = · = · + ·
¿ ¿


Cioè la stima di A è la cross-correlazione dei dati y per la forma del segnale w.

Poiché il problema è gaussiano (le statistiche coinvolte sono per ipotesi tutte normali), ci
aspettavamo che la soluzione sarebbe stata un filtro lineare, come in effetti è.

Se non è presente alcun segnale, avremo in uscita un nuovo rumore

(7.14)
i k i k
k
w q c
·
+
=÷·
=
¿


stazionario con varianza

(7.15)
2 2 2 2
k
k
w
q c c
o o o
·
=÷·
= · =
¿



Se ci fosse solo il segnale, avremmo

(7.16) ( )
0
0 i i k k i k i k w
k k
A y w A w w A R i i
· ·
+ + ÷
=÷· =÷·
= · = · · = · ÷
¿ ¿



( )
w
R l è l’autocorrelazione del segnale
i
w , definita come

195
(7.17) ( )
w l k k k k
k
R l w w w w
·
+ ÷
=÷·
= · = ©
¿


Se vogliamo un filtro che massimizzi il SNR, allora possiamo fare la correlazione tra i dati e
k
B w · , dove B è una qualsiasi costante, e avremo lo stesso risultato. Ma porre B=1 semplifica
la valutazione dell’ampiezza del segnale.

Vediamo la soluzione nel dominio della frequenza.
Indichiamo l’uscita del filtro adattato con { }
i
v , con trasformata V. Abbiamo

(7.18) ( ) ( ) ( )
*
V Y W e e e = ·


Possiamo vederne lo schema:


Figura 7-2


Nel nodo somma vediamo la somma del segnale w (quando e se presente la delta all’ingresso
di W) e del rumore bianco di densità spettrale
S
c
.

Se i segnali w sono rari (o assenti), { }
i
v è la risposta del filtro adattato al rumore bianco; avrà
quindi spettro

(7.19) ( )
2
w
S S W
c
e = ·

e autocorrelazione pari all’autocorrelazione del segnale w moltiplicato per
2
c
o . Questa è
un’interessante proprietà del filtro adattato.

C’e stato miglioramento di SNR ? Dato che la varianza del rumore è la stessa prima e dopo,
vediamo cosa succede sul segnale. Prima il massimo valore era

W
A o ·

S
c
S
0

Y


A W ·

*
W

filtro
adattato
V


196
(7.20)
( )
max
pre i
Max A w = ·

dopo diventa

(7.21)
post
Max A =

Ora è evidente che, per la (7.9),
( )
max 1
i
w s (l’eguaglianza si ha se
i
w è una delta). E il
guadagno del filtro è

(7.22)
( )
1
max
i
G
w
=


7.2.2 Altre dimostrazioni

Dato il grande interesse pratico e teorico del filtro adattato, vediamo altre metodologie di
calcolo.

Si voglia massimizzare il SNR con un filtro lineare. Sia questo filtro B definito da una risposta
impulsiva (non necessariamente causale) { }
i
a ; cioè

(7.23)
2
2
i i
i
i
i
A w b
b
c
o
· ·
·
¿
¿


Per la disuguaglianza di Schwartz (vedi (2.140), il massimo si ha se
i i
b w · (di cui
i i
b w = è un
caso particolare).

Un altro modo di calcolare il filtro adattato, che giunge allo stesso risultato (7.12), è il
seguente:

- si voglia stimare, col metodo dei minimi quadrati, l’ampiezza A di un impulso { }
i
A w · .

Il rumore gaussiano bianco aggiunto può essere visto come un errore gaussiano additivo. La
stima sarà lineare per la gaussianità (e potremo indicare lo stimatore con il filtro F di risposta
impulsiva { }
i
f ). L’errore da minimizzare sarà

(7.24)
2
i i
i
P E A f y
(
| |
= ÷ · (
|
\ . (
¸ ¸
¿



Poniamo nella (7.24)
i i i
f w a = + . Abbiamo, ricordando la (7.9),

197
(7.25)
( ) ( )
2
2
2
2
i i i i
i
i i i i i i i
i i i i
i i i i i i
i i i
P E A w a A w
E A A w A wa w a
E A wa w a
c
c c
c c
(
| |
= ÷ + · · + = (
|
\ . (
¸ ¸
(
| |
÷ · ÷ · ÷ ÷ = (
|
\ . (
¸ ¸
(
| |
· + + (
|
\ . (
¸ ¸
¿
¿ ¿ ¿ ¿
¿ ¿ ¿


Ora, se vogliamo minimizzare P, il primo termine in parentesi, che dipende da A che può'
essere grande a piacere, si deve annullare, quindi deve essere

(7.26)
i i
i
wa
¿


(ortogonalità di w e a ) . Quindi, ricordando che le
i
c sono scorrelate e
2 2
i
E
c
c o ( =
¸ ¸
,

(7.27)
( ) ( )
( )
2
2 2 2
2 2 2
2
i i i i i i i
i i i
i i
i
E w a w a w a
w a
c
c
c o
o
(
| | | |
+ = · + + · · = (
| |
\ . \ . (
¸ ¸
= · +
¿ ¿ ¿
¿


da cui deve essere 0
i
a = per tutti gli i e quindi
i i
f w = , come avevamo trovato con le altre
ipotesi.




7.2.3 Caso generale

Vediamo ora cosa possiamo fare nel caso in cui il rumore non è bianco.

Poiché la nostra soluzione ottima dà un filtro lineare, possiamo “sbiancare” il rumore (e quindi
modificare di conseguenza il segnale) e applicare a ciò il metodo appena applicato
35
; attenzione
però perché il nuovo filtro andrà adattato al segnale modificato dallo sbiancante.

Per chiarire la situazione, mostriamo lo schema delle operazioni:




35
Si deve supporre che il filtro sbiancante sia realizzabile (e stabile). Nella nostra ipotesi di rumore gaussiano
stazionario, ciò è sempre possibile.
198

Figura 7-3


Se lavoriamo con le frequenze fisiche, per semplicità supporremo
1
0
1 S Hz
÷
= (l’ampiezza
viene così conglobata in N); se usiamo le frequenze normalizzate (cioè quando usiamo la
variabile pulsazione normalizzata O definita in (3.41)), possiamo porre
0
1 S = .

In formule, nel dominio della frequenza, abbiamo

(7.28)
( ) ( )
( )
( )
( )
( )
( )
* *
2
W W
V Y Y
S
N c
e e
e e e
e
e
= · = ·

Si noti che il filtro “sbiancante” (whitening filter) N è applicato due volte, una volta in modo
“causale” (dal passato al futuro) e una volta in modo anti-causale (dal futuro al passato, quando
il filtro applicato nel dominio della frequenza è
*
N ): ciò rende nullo qualsiasi sfasamento che
N da solo possa introdurre.

La risposta al segnale, nel dominio della frequenza, è data da

(7.29) ( )
( )
( )
2
W
V
S
c
e
e
e
=

Questa è sempre reale positiva e quindi la sua anti-trasformata è una funzione hermitiana.
Se il segnale e il rumore sono reali, è anche una funzione pari.

Se invece c’è solo rumore, all’uscita abbiamo un rumore che ha spettro

(7.30) ( )
( )
( )
( )
( )
2 2
*
0 0 * v
W W
S S S
N S
c
e e
e
e e
= · = ·

Si noti che,
0
S è essenziale per motivi di dimensioni fisiche, se usiamo le misure fisiche.

W
N
A o ·

S
0

Y


( )
c
S ω



A W ·

1
N

*
*
W
N

sbiancante adattato
adattato generalizzato
199
Per calcolare la risposta impulsiva nel tempo e l’autocorrelazione del rumore occorre calcolare

(7.31)
( )
( )
2
1
k
W
R
S
c
e
e
÷
| |
|
=
|
\ .
F

In particolare è importante il valore
0
R , dove ha il massimo assoluto.

Un importante risultato è che la risposta impulsiva in frequenza (7.29) è proporzionale allo
spettro di potenza del rumore (7.30), e la risposta impulsiva (7.31) nel tempo è proporzionale
all’autocorrelazione del rumore.

L’SNR dopo il filtro è

(7.32)
0 0
0 0 0
R R
SNR
S S R
= =
·




200
7.3 Teoria della rivelazione (Detection Theory)

Abbiamo costruito il filtro adattato, ma questo dà un valore ad ogni istante di tempo, quindi
“mente” quasi sempre: infatti la sua stima è ragionevole solo quando il segnale è effettivamente
presente.

Per poter “rivelare” (to detect in Inglese) effettivamente segnali, dobbiamo decidere quando
il segnale è plausibilmente presente e quando invece no.

Nel caso del problema che abbiamo posto nel paragrafo 7.2, la decisione viene presa sulla base
dell’ampiezza dell’uscita del filtro adattato:

- decidiamo che ci sia un segnale del tipo cercato se la
{ }
i
v ha un massimo relativo e
supera una data soglia.

La situazione è analoga a quella descritta nel paragrafo 2.3.10 sui test statistici.

Supponiamo che l’uscita del filtro abbia una densità di probabilità
( ) ; f x s , dove s è l’ampiezza
del segnale eventualmente presente. Se poniamo una soglia u , abbiamo i due casi

A. Il segnale non è presente. Con probabilità

(7.33) ( )
0
; 0 P f x dx
u
÷·
= ·
}


il segnale non supererà la soglia (e quindi abbiamo indovinato) e con probabilità
0
1 P ÷ la
soglia viene superata anche in assenza di segnale e quindi commettiamo un errore di
primo tipo, ovvero abbiamo un “falso allarme” (false alarm).

B. Il segnale è presente. Con probabilità

(7.34) ( ) ;
s
P f x s dx
u
·
= ·
}


il segnale supererà la soglia (e quindi abbiamo indovinato) e con probabilità 1
s
P ÷ la
soglia non viene superata anche in presenza di segnale che quindi non viene rivelato; in
tal caso commettiamo un errore di secondo tipo, ovvero abbiamo un “falso rigetto”
(false dismissal).

Se “alziamo” la soglia, cioè aumentiamo u , possiamo ridurre la probabilità di errori del primo
tipo, ma aumentando la probabilità di errori del secondo tipo.

Nella figura seguente è presentato un caso

201


In questo grafico sono rappresentate le distribuzioni dell’uscita di un rivelatore (che potrebbe
essere un filtro adattato), nell’ipotesi di assenza di segnale e nell’ipotesi in cui sia presente un
segnale di ampiezza 8.
In questo caso il rumore è additivo (vedi in seguito l’equazione (7.35)) e gaussiano, di
deviazione standard 2. Poniamo la soglia a 5 ed abbiamo

- probabilità di corretto “rigetto”:
0
0.99379 P =

- probabilità di falso allarme:
0
1 0.00621 P ÷ =

- probabilità di corretta rivelazione:
1
0.933193 P =

- probabilità di falso rigetto:
1
1 0.066807 P ÷ =


Attenzione: spesso le ipotesi non sono due, ma se il segnale s può assumere molti valori, cioè
se s è una variabile casuale (quindi, per esempio, può prendere tutti i valori di un dato
intervallo, secondo una data distribuzione di probabilità, che potrebbe anche non essere nota),
l’ipotesi A è in effetti molteplice.

Per rappresentare la situazione si usano spesso le Receiver Operating Characteristics
(ROC), delle curve che danno, per ogni valore dell’ampiezza del segnale, la probabilità di
rivelazione
s
P in funzione della probabilità di falso allarme
0
1 P ÷ , al variare della soglia.

Eccone un esempio, per rumore gaussiano additivo
202


e, in scala semi-logaritmica,



Se, come accade di frequente, il rumore è additivo, allora
203

(7.35)
( ) ( ) ; f x s f x s = ÷

e quindi tutto il processo è descritto soltanto da
( ) f x . O, ancora meglio, dalla funzione

(7.36) ( ) ( ) ( ) 1
x
P x f d F x ç ç
·
= · = ÷
}


che indica la probabilità di falso allarme.

Se vogliamo confrontare due rivelatori (detector) di segnali o due filtri applicati allo stesso
rivelatore, basta confrontare le relative due ( ) f x . Se le due ( ) f x sono dello stesso tipo,
basta confrontarne i parametri. Per esempio, se le ( ) f x sono gaussiane, basta dare le due
deviazioni standard (ed eventualmente i valori aspettati, se ci sono degli offset).

Se lo scopo è il confronto, in tali casi la pletora delle ROC non è una buona scelta.


204
7.4 Filtro di Wiener

Consideriamo ora il problema di stimare un segnale che è modellizzato da un processo
stocastico stazionario gaussiano, da dei dati in cui a tale segnale è aggiunto un rumore
anch’esso gaussiano e stazionario. Cioè, nel discreto,

(7.37)
i i i
y x n = +

Lo schema è il seguente


Figura 7-4


Il segnale è modellizzato come l’uscita di un filtro lineare W con all’ingresso un segnale con le
caratteristiche statistiche di un rumore bianco e che chiamiamo “processo di innovazione”.

Dobbiamo costruire la stima ottima nel senso dei minimi quadrati, cioè

(7.38)
i i k k
k
x y f
·
÷
=÷·
= ·
¿


tale che

(7.39)
( )
2
i i
E x x
(
÷
(
¸ ¸


sia minimo.

Per il principio di ortogonalità, la condizione di minimo sulla (7.39) porta a che sia

W
N
I
S
0

Y


( )
n
S ω



X
205
(7.40)
( )
( ) ( )
0
ovvero
0
i i k
i i l i l l k k
l
E x x y
E x x n f x n
·
÷ ÷
=÷·
(
÷ · =
¸ ¸
( | |
÷ + · · + =
( |
\ . ¸ ¸
¿


e, passando ai valori aspettati, ricordando la stazionarietà di x e n e che x e n sono
indipendenti e quindi scorrelati,

(7.41) ( ) ( ) ( ) ( ) ( )
0
xx l xx l nn
l l
R k f R l k f R l k ÷ · + ÷ · + =
¿ ¿






Imponendo il minimo errore secondo i minimi quadrati, troviamo, nel dominio della
frequenza,

(7.42) ( )
( )
( )
( )
( ) ( )
x x
y n x
S S
W
S S S
e e
e
e e e
= =
+


dove
( )
y
S e è lo spettro di potenza dei dati, ( )
x
S e è lo spettro di potenza del segnale e
( )
n
S e lo spettro di potenza del rumore. Il filtro ( ) W e è detto filtro di Wiener, dal nome del
matematico americano Norbert Wiener.

Nel caso più generale, il filtro si scrive

(7.43) ( )
( )
( )
xy
y
S
W
S
e
e
e
=

dove ( )
xy
S e è lo spettro incrociato tra il processo x e i dati y.





206
7.5 Realizzazione di filtri

Un filtro, in pratica, non è altro che un sistema discreto. Dei sistemi discreti abbiamo parlato
ampiamente. Qui faremo alcune osservazioni sulla loro realizzazione.

Spesso infatti possono esservi varie possibili implementazioni di uno stesso filtro, soprattutto
tenendo presente che raramente si possono realizzare filtri “ottimi”, ma ci si deve accontentare
approssimazioni, spesso buone. Ciò anche perché l’informazione sui segnali e sui rumori non
sempre è completa.


7.5.1 Filtri FIR

I filtri FIR (Finite Impulsive Response) non sono che un altro nome dei sistemi MA (moving
average) visti nel capitolo 3. La caratteristica fondamentale è che questi filtri sono
intrinsecamente stabili.
Spesso tuttavia possono essere molto pesanti dal punto di vista computazionale.


7.5.2 Filtri IIR

I filtri IIR (Infinite Impulse Response, AKA filtri AR) sono invece, in genere, meno pesanti
computazionalmente (poiché spesso hanno pochi coefficienti) e sono più “naturali” per via
della dipendenza a tutte le distanze. In certi casi, piccoli errori nel calcolo dei coefficienti
(anche per arrotondamenti) possono dar luogo ad instabilità.


7.5.3 Filtri a sfasamento nullo

I filtri di tipo FIR o IIR sono causali e introducono inevitabilmente (a parte casi banali) uno
sfasamento dipendente dalla frequenza.

Talvolta è utile non introdurre sfasamenti, ovvero applicare filtri con funzione di trasferimento
reale.

Lo sfasamento introdotto dai filtri FIR può essere lineare con la frequenza, come è lo
sfasamento di un semplice ritardo. Infatti la funzione di trasferimento di un ritardo t A è

(7.44) ( ) ;
j t
D
F j t e
e
e
÷ · ·A
A =

e quindi la fase è

(7.45) t ¢ e = ÷ · A

207
Ciò accade se i coefficienti del filtro FIR sono simmetrici rispetto a un valore, per esempio i
seguenti due:

(7.46)
1 2
1 2 3
2
2 2
i i i i
i i i i i
y x x x
y x x x x
÷ ÷
÷ ÷ ÷
= ÷ · +
= + · + · +


Questo ritardo è quasi sempre inessenziale e quindi si parla spesso di filtri a fase lineare come
filtri a sfasamento nullo.

Un modo per ottenere filtri a fase nulla, è far passare lo stesso filtro prima in modo causale,
cioè dal passato al futuro, e quindi in modo anti-causale, cioè dal futuro al passato.
Ovviamente per far cio’ dobbiamo conoscere i “dati futuri” (cioè dobbiamo lavorare offline,
quindi con un effettivo ritardo). Cio’ che accade è che a ciascuna frequenza, se il filtro
“causale” la sfasa di ¢ , quello anti-causale la sfasa di ¢ ÷ e quindi alla fine lo sfasamento e
nullo. Ma attenzione ! ciascuno dei due filtri applica a quella frequenza un guadagno G , quindi
alla fine il guadagno è
2
G .

Vista nel dominio trasformato la situazione è la seguente: se il filtro applicato ha una funzione
di trasferimento complessa ( ) F je , applicato in modo anticausale la sua funzione di
trasferimento diventa ( )
*
F je e quindi il filtro effettivamente applicato dopo le due
operazioni diventa ( )
2
F je .



7.5.4 Filtri in frequenza

Applicare un filtro FIR significa eseguire una convoluzione. Per eseguire una convoluzione di
due “vettori”, uno, il pezzo di dati, lungo N e uno, il filtro FIR con M coefficienti, occorre
eseguire M N · moltiplicazioni ed altrettante somme. Se M ed N sono numeri abbastanza
grandi (per esempio
36

9
10 N = ed
5
10 M = ), il carico computazionale diventa elevatissimo.

Si può allora far uso del fatto che nel dominio trasformato di Fourier la convoluzione è una
semplice moltiplicazione (quindi, in linea di principio, M volte più veloce).
Dobbiamo pero’:

- dividere gli N dati in gruppi di lunghezza M (preferibilmente M deve essere una potenza di
2)

- trasformare i dati di ingresso al filtro e quindi anti-trasformare i dati di uscita. E cio’ può
essere fatto con la FFT (vedi paragrafo 3.4.2), con un numero di operazioni proporzionale
a log M M · (invece che
2
M , come sarebbe con la convoluzione).


36
Sono valori tipici per un giorno di dati di un’antenna gravitazionale, con un filtro ben adattato al rumore
reale. Spesso poi si devono applicare contemporaneamente migliaia di filtri.
208
Con M dell’ordine di
5
10 , si guadagna un fattore circa 1000 nel numero delle operazioni
elementari svolte.

Il fatto di lavorare “a pezzi” sui dati, permette di realizzare facilmente filtri non-causali e/o a
sfasamento nullo.

Ma attenzione ! La FFT, che è un modo veloce di calcolare la DFT, considera i dati periodici
di periodo M, e questo creerebbe gravissimi artefatti nel filtraggio. L’escamotage che si usa per
questo problema è, in genere, il seguente:

- si divide il pezzo di dati da analizzare in M-pezzi di lunghezza M interallacciati per la metà

- ogni M-pezzo viene utilizzato per analizzarne solo la metà centrale. Infatti con una FFT di
lunghezza M, si implementa un filtro FIR di lunghezza effettiva M/2 (tipicamente M/4
con indice negativo e M/4 con indice positivo), e quindi con metà dei coefficienti pari a
zero (per filtri non-causali, la parte nulla è la centrale)



209
7.6 I disturbi impulsivi - Filtro a mediana

Fin’ora abbiamo visto solo filtri lineari. I filtri lineari operano prendendo tutti i campioni del
segnale, indipendentemente dall’ampiezza, e il valore d’uscita dipende linearmente dai valori
dei singoli campioni, quindi se un campione è molto grande, ha un peso grande sull’uscita.

Spesso il rumore non è solo un processo gaussiano, o comunque continuo, ma contiene dei
disturbi localizzati (“burst” o impulsi) rari, ma di grande ampiezza.

Come la caratteristica del rumore che abbiamo considerato nei paragrafi 7.2 e 7.4 era lo
spettro e utilizzando questa conoscenza possiamo ridurne l’effetto, cosi’ nel caso di questi
burst la caratteristica che li contraddistingue è l’ampiezza e quindi grazie a questo in parecchi
casi possiamo eliminarli tramite un’opportuna procedura non lineare, che dipende
dall’ampiezza (purtroppo pero’ spesso cancellando la parte del segnale che è presente nello
stesso periodo).

Vediamo ora un’altra procedura non lineare per stimare il valor medio del segnale in presenza
di rumore impulsivo.
Nel caso di rumore stazionario continuo, possiamo fare una media mobile (o operare con un
filtro AR, come in 3.2.1). Se ci sono grossi impulsi, possiamo dividere i dati in intervalli e per
ciascuno di questi calcolare la mediana. La mediana è molto meno sensibile alla presenza di
grossi impulsi rispetto alla media (che è un’operazione lineare).

Questa procedura viene indicata come filtro a mediana.

210
8 Cenno alla trasformata wavelet



211
9 Cenni al caso di dati non stazionari



212
9.1 Analisi tempo-frequenza




213
9.2 Filtri adattivi






214
10 Cenni ai modelli non lineari



215
10.1 Filtri non lineari



216
10.2 Il bispettro

Quando abbiamo a che fare con modelli non-lineari, in genere l’ipotesi di gaussianità cade e
quindi diventano interessanti le statistiche di ordine superiore al secondo.

Il bispettro, come abbiamo visto in (5.34), è la trasformata di Fourier del cumulante del terzo
ordine di un processo stocastico stazionario

(9.1) ( ) ( ) ( ) ( )
*
1 2 1 2
,
xxx
C E x t x t x t t t t t ( = · + · +
¸ ¸


Notiamo che in questo cumulante ci sono varie simmetrie, e cioè, per segnali reali,

(9.2)
1 2
2 1
1 2 1
2 1 1
2 1 2
1 2 2
,
,
,
,
,
,
ABC
ACB
BAC
BCA
CAB
CBA
t t
t t
t t t
t t t
t t t
t t t
÷
÷
÷ ÷ ÷
÷ ÷ ÷
÷ ÷ ÷
÷ ÷ ÷


Per segnali complessi invece c’è solo

(9.3)
1 2
2 1
,
,
ABC
ACB
t t
t t
÷
÷


Queste simmetrie si riflettono sul bispettro.

Vediamo come si presenta il bispettro di una sinusoide:

217

Figura 10-1


Nei sistemi non lineari raramente sono presenti frequenze “pure”, ecco come appare il
bispettro se si introduce una non-linearità che genera la terza armonica


Figura 10-2

218
e nel caso che generi la seconda e la terza:


Figura 10-3


Vediamo cosa accade per il bispettro di un esponenziale immaginario:

219

Figura 10-4


Particolarmente interessante è cio’ che accade con segnali casuali. Di seguito sono presentati i
bispettri nel caso di rumore bianco, ma con distribuzione rispettivamente

o gaussiano
o esponenziale
o chi quadro con 10 gradi di libertà
o uniforme

Lo spettro di questi quattro rumori è indistinguibile, mentre ecco come si presentano i 4
bispettri:
















220

Gaussiano

Figura 10-5


Esponenziale

Figura 10-6
221


Chi quadro con 10 gradi di libertà

Figura 10-7


Uniforme

Figura 10-8

222
Per quanto riguarda il valore, avendo posto segnali con la stessa potenza, abbiamo il seguente
risultato:

Tipo di rumore bianco Media valore assoluto

Gaussiano 0.038
Esponenziale 0.210
Chi quadro 10gdl 0.098
Uniforme 0.002


Notiamo poi che mentre nel caso gaussiano e in quello uniforme abbiamo un pattern con
variazioni rapide, nel caso dell’esponenziale e del
( )
2
10 _ le variazioni sono più morbide.
Questo si evidenzia facendo lo spettro di potenza dell’immagine (vedi paragrafo 11.2). Ecco i
risultati:

Gaussiano

Figura 10-9









223
Esponenziale

Figura 10-10


Chi Quadro (10)

Figura 10-11

224
Uniforme

Figura 10-12


Ed infine vediamo il bispettro di rumore esponenziale complesso


Figura 10-13
225

da cui si nota la riduzione della simmetri a bilatera.

226
11 Cenno all’image processing

11.1 Immagini ed elaborazione delle immagini

Un’immagine è descritta da una funzione di due variabili

(10.1) ( ) , g x y

Distinguiamo tra immagini in bianco e nero e a colori. Nel primo caso in ogni punto la g(x,y) è
una funzione scalare, nel secondo a ciascun punto è associato un vettore a 3 dimensioni. Qui ci
occuperemo solo di immagini in bianco e nero (anche se esistono modi di visualizzazione a
colori di immagini in bianco e nero).

Come avviene per i segnali temporali, cosi’ anche le immagini vengono discretizzate per essere
“lette” e elaborate dai computer. la funzione g(x,y) diventa quindi una matrice

(10.2)
ik
g

Ogni elemento di questa matrice viene detto pixel.

La visualizzazione di una immagine può essere eseguita per esempio per scala di grigi. Nella
rappresentazione a scala di grigi, rappresentiamo lo 0 (o il valore minimo) col nero e il valore
massimo di nostro interesse col bianco.
Possiamo però anche usare scale “colorate” differenti che talvolta possono risultare più
comprensibili o più suggestive.

Eccone un esempio. Qui l’immagine è una foto
37
; ogni pixel ha un valore tra 0 e 63.


37
Non sempre è cosi’: per esempio un’immagine puo’ essere una rappresentazione tempo-frequenza di
un segnale.
227


Figura 11-1


L’elaborazione delle immagini è un campo molto esteso, in cui si trasforma opportunamente
un’immagine, al fine, per esempio, di evidenziare (o nascondere) certe caratteristiche
38
.

Distinguiamo tre tipi di elaborazione:

o puntuale : ogni pixel viene modificato dipendentemente dal valore che ha

o locale : ogni pixel viene modificato dipendentemente dal valore che hanno quelli vicini
(anche non solo gli adiacenti)

o globale : tutti i pixel vengono modificati nello stesso modo (per esempio sommando
una costante)

Facciamo un paio di esempi di elaborazione puntuale.

38
Il fine puo’ anche essere artistico.
228

o il negativo : ( ) ' max
ik ik ik
g g g = ÷


Figura 11-2



o alto contrasto : ( ) ' sign
ik ik
g g u = ÷ (dove u è una soglia)


Figura 11-3



229
Ve diamo ora una tipica elaborazione “locale”:

o “derivata” : a ogni pixel è sottratto quello che lo precede (per esempio verticalmente)


Figura 11-4
230
11.2 Elaborazione lineare delle immagini

Le immagini possono essere elaborate in modo analogo ad i segnali. La differenza è che al
posto dell’ascissa temporale (o dell’indice “temporale” nel caso dei segnali discreti), abbiamo
due ascisse spaziali ortogonali (ovvero due indici discreti) (vedi (10.1) e (10.2)).

Analogamente ai segnali temporali, possiamo introdurre l’operazione di convoluzione che nel
continuo si definisce
(10.3) ( ) ( ) ( ) ( ) , , , , a x y b x y a b x y d d ç , ç , ç ,
· ·
÷· ÷·
© = · ÷ ÷ · ·
} }


Nel caso discreto si ha
(10.4)
( )( ) ik ik mn i m k n
m n
a b a b
· ·
÷ ÷
=÷· =÷·
© = ·
¿ ¿


Elaborazioni di una immagine del tipo della convoluzione vengono dette elaborazioni lineari.

Analogamente al caso dei segnali temporali, possiamo definire la trasformata di Fourier di una
immagine g(x,y) come

(10.5) ( ) ( ) ( ) ( )
( )
, , ,
j u x v y
G u v g x y g x y e dx dy
· ·
÷ · · + ·
÷· ÷·
= = · · ·
} }
F

(si suppone g(x,y)=0 dove non esiste l’immagine). La sua inversa è

(10.6) ( ) ( ) ( ) ( )
( )
2
1
, , ,
4
j u x v y
g x y G u v G u v e dx dy
t
· ·
· · + ·
÷· ÷·
= = · · ·
} }
-1
F

e, nel caso discreto, equivalentemente alla DFT,

(10.7) ( )
( )
,
j i k
ik
i k
G g e
· ·
÷ · ·u+ ·+
=÷· =÷·
u + = ·
¿ ¿


e la sua inversa

(10.8) ( )
( )
2
1
,
4
j i k
ik
g G e d d
t
· ·
· ·u+ ·+
÷· ÷·
= u + · · u· +
} }


Possiamo definire l’analogo dello spettro di potenza come

(10.9) ( ) ( )
2
, , S u v k G u v = ·

dove k è una costante; chiamiamolo semplicemente spettro, perché ovviamente non è uno
spettro di potenza (né di energia). Per l’autocorrelazione abbiamo

231
(10.10) ( ) ( ) ( )
, , R S u v ç , =
-1
F

Facciamo un esempio. Ecco l’immagine di un cerchio

Figura 11-5

Ed ecco il logaritmo dello spettro


Figura 11-6


232
Si noti che questo “spettro” è indipendente dalla posizione del cerchio nella figura (anzi, sul
“toro” costruito unendo i due lati verticali e quindi i due orizzontali).

Ed ecco l’autocorrelazione:


Figura 11-7

Vediamo ora come migliorare il rapporto segnale rumore in una immagine.

Costruiamo la seguente immagine

Figura 11-8
233
Sono 5 cerchi uguali a quello precedente di cui abbiamo fatto lo spettro.

Ora sommiamo a questa immagine del “rumore”, cioè a ciascun pixel una variabile normale. Se
il rumore aggiunto è abbastanza “grande”, i cerchi scompariranno. Ecco il risultato avendo
aggiunto rumore gaussiano con deviazione standard 4 volte maggiore:

Figura 11-9


Ora costruiamo un semplice filtro cosi’ fatto:

o si prende la trasformata di Fourier dell’immagine disturbata
o si moltiplica per lo spettro del singolo cerchio
o se ne fa la trasformata inversa

Ed ecco il risultato:

234

Figura 11-10


Come si vede, anche se disturbati, i cerchi sono ben visibili, nella posizione giusta.

Questo è un filtro piuttosto rozzo. Possiamo fare il filtro adattato (del tutto analogo a quello
nel caso dei segnali), prendendo un cerchio nell’origine

Figura 11-11


e quindi usarlo come “filtro adattato” ed applicarlo all’immagine, eventualmente lavorando con
le trasformate di Fourier, cioè essendo M questa immagine e X l’immagine originale, otteniamo

235
(10.11) ( ) ( )
*
1
Y X M
÷
(
= ·
¸ ¸
F F F

Otteniamo

Figura 11-12


dove, come si vede, appaiono dei punti luminosi nei centri dei cerchi. Da questa, se il rapporto
segnale-rumore è abbastanza buoni, possiamo riottenere l’immagine originale con

(10.12)
( )
( )
3
1
' X Y Y M
÷
(
= · ·
¸ ¸
F F F

ottenendo

236

Figura 11-13

che è decisamente un buon risultato. Notare che quest’ultima operazione è non-lineare, e,
come spesso accade con i metodi non lineari, dà buoni risultati solo se il rapporto segnale-
rumore è abbastanza elevato. Se si operasse in modo lineare, se cioè si usasse

(10.13) ( ) ( )
1
' X Y M
÷
= · (
¸ ¸
F F F

avremmo il risultato di Figura 11-10.

237
11.3 La compressione JPEG



238
12 Un’applicazione: la ricerca di periodicità

12.1 Introduzione al problema

La ricerca e l’analisi di periodicità in un segnale sono un problema che si presenta di frequente.
Per affrontarlo sono stati messi a punto decine di metodi di analisi, alcuni dei quali
analizzeremo in questo capitolo. Qui vogliamo mostrare alcuni dei modi in cui si presenta il
problema.

Innanzitutto individuiamo tre tipi di periodicità:

- periodicità coerente, per cui

(11.1) ( ) ( ) x t x t T = +

dove T è il “periodo”. Si ha, di conseguenza

(11.2) ( ) ( ) x t x t k T = + ·

dove k è qualsiasi intero.
Si parla di periodicità coerente anche nel caso in cui vari l’ampiezza ma non la fase. Per
esempio nel caso di

(11.3) ( ) ( )
2
sin
t
x t A t
T
t · | |
= ·
|
\ .


dove ( ) A t è una funzione positiva, in genere “lenta” (cioè con frequenze basse rispetto a
1/T).


- periodicità non coerente, per cui

(11.4) ( ) ( ) x t x t T ~ +

Ogni periodo, in questo caso, è quasi uguale al precedente, ma ci possono essere (in genere
lievi) differenze di fase, che tuttavia si possono accumulare nel tempo. Un esempio di
periodicità non coerente è un processo AR del secondo ordine.


- periodicità variabile, in genere “lentamente” (altrimenti viene meno l’idea di periodicità).
In tal caso

(11.5) ( ) ( ) ( ) ( )
x t A t x t T t = · +

239
dove
( ) A t e
( ) T t variano lentamente.
( ) A t e
( ) T t potrebbero essere note oppure
potrebbe essere l’oggetto della ricerca

I problemi di analisi poi variano, a seconda di

- cosa è noto (per esempio il periodo, il periodo e la fase, la forma d’onda,…). Se fosse noto
tutto, a parte l’ampiezza, teoricamente si potrebbe applicare il filtro adattato, ma raramente
è ragionevole usare un filtro adattato per la ricerca di segnali periodici (almeno nella forma
che abbiamo visto in 7.2

- cosa cerchiamo (per esempio l’ampiezza, il periodo, il periodo e la fase, la forma
d’onda,…)

- che tipo di dati abbiamo a disposizione

- con che precisione ci interessa il risultato

- quale è il rapporto segnale rumore


240
12.2 Il periodogramma

Lo strumento principale per analizzare le periodicità è la stima dello spettro di potenza tramite
l’uso dei periodogrammi, di cui abbiamo parlato nel paragrafo 6.4.1. È questo sicuramente lo
strumento migliore per un’analisi esplorativa.

Se il segnale è descritto da

(11.6)
( ) ( )
0
sin x t A t e ¢ = · +

e il rumore, nei dintorni della frequenza del segnale, ha spettro abbastanza piatto che vale
n
S
(bilatero), se sono trascurabili artefatti dell’analisi, abbiamo nello spettro stimato con un
singolo periodogramma

(11.7)
2
4
obs
n
A T
SNR
S
·
=
·


dove
obs
T è il tempo di osservazione. Il rumore in tal caso, come sappiamo, è distribuito
esponenzialmente.
Se facciamo la media di M periodogrammi (ciascuno lungo /
obs
T M ), abbiamo

(11.8)
2
4
obs
n
A T
SNR
M S
·
=
· ·



I vantaggi di questo strumento sono

- è molto veloce e si possono osservare molte periodicità contemporaneamente

- è affidabile, cioè solo in casi particolari sono generati artefatti e gli errori di stima sono
sotto controllo


I problemi di questo strumento sono

- è difficile applicarlo a tantissimi dati (una FFT oggi può essere fatta senza difficoltà fino a
qualche milione di dati)

- non si osservano variazioni nel tempo

- la risoluzione in frequenza è limitata (nella definizione più banale è /
obs
M T , in effetti è in
genere migliore di questo valore (se si usa FFT con soprarisoluzione), dipendentemente dal
SNR.

- ignora la fase della periodicità

241
- è uno strumento non molto adeguato per la ricerca di periodicità non sinusoidali

- non è molto adeguato per periodicità non coerenti (a meno che non si riduca la
risoluzione)
242
12.3 Metodi parametrici

Abbiamo accennato a questi metodi in 6.4.2. Per la ricerca di periodicità, questi metodi sono
adeguati in casi non molto complessi. Permettono in genere migliori risoluzioni rispetto al
periodogramma.


243
12.4 Il lock-in

Supponiamo di conoscere la frequenza di un segnale, e dobbiamo stimarne l’ampiezza e la fase.
Uno strumento per questo scopo è il lock-in
39
.

Dato un segnale x(t), il lock-in produce il seguente segnale complesso
40


(11.9)
( ) ( )
2 t t
j
T
y t x e e d
u t u
t
u u
÷ ·
÷
÷·
= · · ·
}


qui T è il periodo che si suppone noto e t è il “tempo d’integrazione”, ciò il tempo scala delle
eventuali variazioni.

Il rapporto segnale/rumore è, nell’ipotesi di eq. (11.6),

(11.10)
2
4
n
A
SNR
S
t ·
=
·


e la distribuzione del modulo quadro del rumore è esponenziale.

Dal numero complesso y(t) ricaviamo la stima dell’ampiezza del segnale

(11.11) ( ) A y t =

(attenzione ! è biasata per la presenza del rumore; il bias va tolto quadraticamente) e la sua fase

(11.12) ( ) y t ¢ = Z

Si noti che entrambe le stime sono variabili nel tempo, e t è il tempo scala della più rapida
variazione osservabile.

Una forma diversa di lock-in è la seguente


(11.13) ( ) ( )
2
0
t
j
T
y t x e d
t u
u u
·
= · ·
}


Come si vede, la costante di tempo è scomparsa, e l’integrale si estende dall’inizio delle misure
fino al tempo t. Si può graficare la y(t) nel piano di Gauss. Chiamiamo questa figura il “verme”,
per l’aspetto che assume nel caso di periodicità di periodo T.

39
Con questo nome viene indicato un particolare amplificatore elettronico. Qui noi indichiamo l’algoritmo
utilizzato da questo amplificatore.
40
L’amplificatore elettronico produce due segnali separate, detti “segnale in fase” e “segnale in quadratura”.
Noi li vedremo come un singolo segnale complesso.
244
Ciò può essere molto utile per vedere variazioni di frequenza. Se la frequenza del segnale è
mediamente diversa da
1
T
v = , allora il “verme” gira intorno all’origine: dal numero di giri che
compie (e dal verso) si deduce la differenza tra la frequenza “vera” e
1
T
v = .

Vediamo ora il “verme” per una realizzazione di un processo AR(2) con frequenza 100 Hz e
Q=10000, osservato a 100 Hz:


Figura 12-1

e ecco cosa avviene se si “sintonizza” il verme a 100.1 Hz (sugli stessi dati)

245

Figura 12-2


246
12.5 L’analisi di fase

Talora si conosce il periodo di un fenomeno, ma siamo interessati a come ne va l’ampiezza
all’interno del periodo.
Per esempio è questo il caso in cui siamo interessati al rumore di fondo in un laboratorio,
sappiamo che questo è correlato con l’attività umana e quindi ha una periodicità giornaliera,
ma vogliamo sapere come varia nelle varie ore del giorno.
Un altro esempio è il segnale delle pulsar: è questo un segnale periodico ed è di grande
importanza conoscerne il profilo. Ecco alcuni diagrammi di fase per il segnale della pulsar della
nebulosa del Granchio (Crab pulsar):


Figura 12-3


Questo tipo di grafici si eseguono mediando in fase i vari periodi del segnale.

247
12.6 Il fit armonico

Un altro metodo di analisi di periodicità non sinusoidali è il fit del segnale armonico con

(11.14)
1
2 2
cos sin
n
k k
k
k t k t
a b
T T
t t
=
| · · · · | | | | |
· + ·
| | |
\ . \ . \ .
¿


cioè trovare i coefficienti
k
a e
k
b che meglio descrivono il segnale (per esempio secondo il
criterio dei minimi quadrati). Il segnale è quindi descritto da una 2n parametri. È buona norma
calcolare anche l’incertezza su questi parametri.

Se T non è noto, si può fare un’indagine con vari valori di T, in un range ragionevole, e
graficando l’inverso dell’errore quadratico medio, facendo così una specie di spettro.
Questo metodo, anche per n=1, ha una migliore risoluzione rispetto al periodogramma (anche
se è molto più costoso computazionalmente).

Se T è noto, si misurano in pratica le varie armoniche del diagramma di fase.


248
12.7 Il caso del campionamento non uniforme

Talvolta i dati non sono campionati in modo uniforme: le osservazioni possono essere
sporadiche (come per esempio può capitare in astronomia).
In altri casi può essere utile un campionamento non uniforme per superare i limiti della
frequenza di Nyquist.

In questo caso, se le osservazioni sono
{ }
1 2
, ,...,
N
x x x , una stima dello spettro di potenza è

(11.15)
( ) ( )
2
1
1
exp
N
i i
k
S x t
N
e e
=
= · · ·
¿


Facciamo un esempio. Campioniamo un segnale di forma

(11.16)
( ) ( ) ( ) sin 2 900 cos 2 211 x t t t t t = · · + · ·

consideriamo prima il caso di 100 campioni uniformi in un secondo. In tal caso è evidente che
le condizioni del teorema del campionamento non sono soddisfatte per le due frequenze di
211 e 900 Hz (la frequenza di Nyquist è 50 Hz) e infatti ecco lo spettro:


Figura 12-4

Si vedono varie frequenze aliasate più volte. Tra queste compare 211 Hz, ma non 900 (che è
aliasata a 0 perché è un multiplo pari della frequenza di Nyquist).

249
Ed ecco invece lo spettro ottenuto con la (11.15), avendo preso 100 istanti di campionamento
a caso (distribuzione uniforme) in un secondo


Figura 12-5

Come si vede, le due frequenze compaiono al valore giusto (anche se c’è un fondo casuale che
è facile dimostrare aver distribuzione esponenziale con valore aspettato uguale alla varianza del
segnale).

Se i tempi di campionamento hanno delle periodicità, queste si riflettono su ( ) S e .

250
12.8 Periodicità non coerenti

Se si ha una periodicità non coerente, il modello più semplice è quello di un processo
gaussiano del secondo ordine (nel discreto, un AR(2)).
In tal caso ci sono 4 parametri da stimare:

- la frequenza
- il tempo di decadimento t
- la varianza
- il rumore di fondo su cui è “seduto” il picco spettrale

Un modo per far ciò è:

- estrarre il pezzo di spettro che contiene il picco
- aggiungere una seconda parte di eguale lunghezza e porla eguale a 0
- antitrasformare questo spettro sintetico, ottenendo un’autocorrelazione complessa
“analitica”
- dedurre la sua frequenza (ci sono vari modi, per esempio contare il numero di giri nel
piano di Gauss) e da questa sommata alla frequenza iniziale del pezzo ricavare la
frequenza cercata
- dall’inviluppo (semplicemente il valore assoluto) dell’autocorrelazione vicino a 0 ricavare il
rumore di fondo (dal picchetto ripido vicino a 0), il tau (dalla pendenza della discesa
“lenta”) e la varianza (l’estrapolazione a 0 della discesa “lenta”).


251
12.9 Periodicità di eventi

Talvolta il problema è quello di trovare le periodicità di impulsi. Di questi non è di interesse la
forma o l’ampiezza, ma solo il tempo di occorrenza.

Il modello è quello di un processo di Poisson con ì variabile in modo periodico nel tempo. È
questo uno dei casi a cui fa riferimento l’equazione (5.83).

Essendo
i
t gli istanti di tempo in cui sono capitati gli impulsi, costruiamo in questo caso lo
spettro impulsivo

(11.17) ( ) ( )
2
1
1
exp
N
i
k
S t
N
e e
=
= · ·
¿


Onde evitare errori di arrotondamento è bene sostituire nella (11.17) ( )
1 i i
t t t ÷ ÷ .

A parte che a bassissime frequenze, se gli impulsi hanno densità uniforme ( ) S e ha
distribuzione esponenziale con valore aspettato 1.

Anche nel caso degli eventi possono farsi diagrammi di fase, fit armonici, eccetera.

252
13 Appendici


Esercitazioni con Matlab

Introduzione a Matlab

Matlab è un software che comprende un linguaggio di programmazione di alto livello per
problemi tecnici e scientifici e un ambiente interattivo per l’analisi e lo sviluppo di programmi
(vedi figura).





Per esempio, se nella finestra interattiva si digita (i “>>” sono il prompt)

>> freq=50; assegna 50 alla variabile freq
>> dt=0.0001; assegna 0.0001 alla variabile dt
>> i=1:1000; crea un vettore i con i numeri da 1 a 1000
>> t=dt*i; moltiplica i valori di i per dt
>> x=sin(2*pi*freq*t); crea un vettore x con i valori del seno
>> plot(t,x) crea un grafico con t ascissa e x ordinata
253
>> grid on aggiunge una griglia al grafico
>>

appare la seguente finestra:


Si noti che se un’istruzione non viene terminata da un “;” appare immediatamente il risultato:

>> a=2*8

a =

16

>> i=1:0.5:2

i =

1.0000 1.5000 2.0000

>>

I comandi possono essere messi in file (con estensione .m) che possono essere esguiti
semplicemente digitando il nome del file (senza l’estensione). Possono mettersi in file anche
“functions” (analoghe, con qualche differenza, alle subroutine del Fortran e alle funzioni del
C).
254

Nell’ambiente interattivo è presente un esteso Help, con la descrizione delle migliaia di
funzioni interne e tutorial.

Sono disponibili (con licenza a parte) numerosi toolbox per specifici ambiti applicativi (per
esempio la statistica, l’analisi dei segnali, le equazioni differenziali alle derivate parziali, l’image
processing e così via.

Matlab è prodotto dalla MathWorks (http://www.mathworks.com/) e nel sito sono
disponibili ottimi manuali d’uso.

Esistono “cloni” gratuiti di Matlab. I due migliori sono

- Scilab (http://scilabsoft.inria.fr/) sviluppato a partire dal 1990 dall’INRIA, un istituto
nazionale di ricerca francese


- Octave (http://www.octave.org/) che però gira solo sotto Linux (si può usare sotto
Windows usando Cygwin, l’ambiente Linux-like di Windows sviluppato dalla Cygnus
(http://www.cygwin.com/).



255
Snag

Snag è un toolbox di Matlab sviluppato presso il gruppo di ricerca sulle onde gravitazionali del
dipartimento, per l’analisi dei dati e la simulazione dei dati delle antenne gravitazionali.
Comprende oltre 800 funzioni Matlab e alcuni strumenti grafici interattivi.

Può essere scaricato dal sito http://grwavsf.roma1.infn.it/snag/default.htm dove sono
disponibili guide di uso e di programmazione.

È stato sviluppato tramite programmazione a oggetti e la classe più importante è il gd (gruppo
dati), che descrive un insieme di dati, per ciascuno dei quali c’è un’ascissa (per esempio
temporale) e un’ordinata.

Lo strumento interattivo basilare si invoca digitando al prompt snag e appare la finestra




Per ulteriori dettagli si rimanda alle guide disponibili nel sito.


256
Uso di SnagLab (versione VB)

Introduzione

SnagLab è un programma orientato all’analisi dei dati sperimentali.
I dati possono essere letti da file o immessi in modo interattivo.
La versione attuale è scritta in Visual Basic 6, in ambiente Windows (Windows 98 e successivi);
è in sviluppo una versione in C#.
Alla partenza del programma viene creato nel folder temporaneo dell’utente un file di log
SnagLab.log con varie informazioni e parametri calcolati.

Istallazione

L’ultima versione del programma è scaricabile da grwavsf.roma1.infn.it/snaglab .Per
istallarlo, creare una cartella (per es. SnagLab) e metterci l’eseguibile e tutti gli eventuali file di
supporto (dll e ocx) che dovessero mancare al sistema.

Uso
I GD

I dati sono immagazzinati in strutture chiamate GD (gruppi dati); questi sono numerati, a
partire dal GD(0) che è il GD dove normalmente “entrano” i dati. I dati del GD(0) possono
essere spostati in altri GD.
Esistono tre “gusti” di GD, a seconda del tipo di dati:
- standard data, in cui ogni dato è caratterizzato da ascissa, ordinata e loro incertezze
- equal uncertainties, in cui le incertezze sono le stesse per tutti i dati
- sampled data, in cui l’ascissa è virtuale, poiché si suppone che siano presi a tutti i
multipli del tempo di campionamento. Questo è utile per i segnali.
La finestra “GD manager” mostra lo stato dei GD.
In ogni momento esiste un GD “a fuoco”, su cui si opera automaticamente. Il GD a fuoco è
in genere l’ultimo considerato. Si può modificare il GD a fuoco 256ompatta su una casella del
GD manager o modificando le apposite caselle in alcune finestre di dialogo.

Altre strutture dati

MD: (Multiple GD) strutture dati contenenti più GD con le stesse ascisse.

DM: (Data Map: GD a due dimensioni) strutture dati con ascissa a due dimensioni (x,y). La
dimensione x può essere “reale” (campionamento non uniforme) o “virtuale”
(campionamento uniforme) ; la dimensione y è sempre virtuale. I DM sono trattati in modo
analogo ai GD: c’è un DM manager, a cui si accede dal GD manager, da cui si possono
visualizzare, come matrici o come mappe.
Alcune delle procedure di SnagLab sono specifiche dei DM, alcune possono applicarsi ai DM
e ai GD.
257

Interfaccia iniziale

La finestra iniziale è composta da tre parti:
- l’albero delle procedure disponibili; le procedure si attivano 257ompattarl sopra. Non
tutte le procedure sono già attive; alcune procedure, come i fit, sono più comodamente
attivabili dall’apposito menu dei grafici.
- la finestra delle informazioni; quando ci sono GD in uso, contiene un preview del GD
“a fuoco”; se è “a fuoco” un GD non usato, viene visualizzato questo file.
- i tasti per accedere al GD manager, alla finestra di input standard dei dati e al Setup
(anche il setup contiene alcune caratteristiche non ancora o non ancora bene
implementate).

Input dei dati

I dati possono essere immessi e modificati tramite l’interfaccia interattiva: occorre cliccare sulla
griglia, alla posizione desiderata e modificare le caselle della pop-up window che appare. (È in
sviluppo un modo di input direttamente da griglia, selezionabile dal set-up, ma non è ancora
consigliabile). Notare che i dati immessi possono essere attivi o no: ciò è utile per esempio per
fare grafici o fit parziali. I dati così prodotti sono salvabili su file.
I dati possono essere scritti in file leggibili da SnagLab. Attualmente esistono tre formati
diversi:
- UD, per dati standard con incertezze individuali, così composto:
#UD
<stringa di didascalia>
<numero di dati>
<x1> <dx1> <y1> <dy1> <act1>
<x2> <dx2> <y2> <dy2> <act2>
…….

dove xn, dxn, yn e dyn sono ascissa, sua incertezza (assoluta), ordinata e sua incertezza,
per ogni punto; act è una flag di attivazione che vale 1 o 0.

- MD, per dati multipli, su più colonne, una per un’ordinata diversa, così composto:
#MD
<numero ordinate (n)> <numero di dati>
<incertezza ascissa> <incertezza ordinata>
<stringa di didascalia ordinata (colonna) 1>
<stringa di didascalia ordinata 2>
….
<stringa di didascalia ordinata n>
<x1> <y11> <y12> … <y1n>
<x2> <y21> <y22> … <y2n>
…………..

- SD, così composto:
#SD
<stringa di didascalia>
<numero di dati> <tempo iniziale> <tempo di campionamento>
258
<y1> <y2> …

I dati possono continuare su più righe, come si preferisce.

I dati nei file possono essere letti con la Open del menu file della finestra “Standard Data
Input” o 258ompatta sull’icona open file della task bar. Se si apre un file con formato MD,
viene chiesto se si vuole leggerlo lo stesso anche se non è UD, quale colonna si vuole leggere;
se si risponde 0, le legge tutte e le mette in GD successivi, a partire da quello richiesto
dall’utente (ATTENZIONE ! la prima colonna va anche nel GD 0).

Altri formati, in lettura e scrittura, saranno supportati.

Grafico

Si può graficare il GD “a fuoco”. Quindi ogni grafico ha un GD “padrone”. Possono tuttavia
essere visualizzati sullo stesso grafico altri GD, tramite il menu “New input”.
Dell’ultimo GD immesso nel grafico può farsi il fit (in vari modi).
Può essere creato un nuovo grafico (con l’ultimo GD immesso), con nuove scelte di range e di
tipo per le coordinate; il tipo delle coordinate è normale, logaritmico, quadrato, radice
quadrata, inverso, per entrambi gli assi. Il fit è visualizzabile correttamente solo per coordinate
normali o logaritmiche.

Fit

Sono attivabili vari tipi di fit per i dati presenti. In particolare:
- fit lineari, generici o con un punto fisso o con fissata pendenza
- fit polinomiali (fino al sesto grado, ma si può aumentare il limite col set-up)
- fit di funzioni di trasferimento (passa basso, passa alto e passa banda), fino al sesto
ordine..
Dai fit lineari e polinomiali si puo’ fare, attivando le flag di conversione logaritmica, fit di
potenza, esponenziali e logaritmici. Nel caso del fit esponenziale si calcola anche il tau, nel
caso del fit di potenza si calcola anche l’esponente.
È visualizzabile la zona di piano che comprende il range di variazione dei parametri (senza
l’imposizione della dovuta correlazione tra i coefficienti stimati).
Per quanto riguarda i fit di funzioni di trasferimento, si noti che il passa alto e il passa basso, a
partire dal secondo ordine, anche le risonanze. Per il primo e il secondo ordine vengono
calcolate frequenze di taglio, frequenze di risonanza, tau e Q.


Analisi statistiche

Sono attivabili semplici analisi statistiche del singolo GD o il coefficiente di correlazione (ed
eventualmente lo scatter-plot, cioè un GD con ascissa l’ordinata del primo GD e come
ordinata quella del secondo) di due GD.
È possibile fare il test del chi-quadro tra due GD o tra un GD e il fit calcolato.

259
Analisi dei segnali

Le operazioni di analisi dei segnali sono orientate ai GD di tipo sampled data. Sono previsti:
- il calcolo dello spettro di potenza
- il calcolo dell’autocorrelazione (attivabile o dalla finestra dello spettro di potenza o
come caso particolare della correlazione incrociata
- il calcolo della correlazione incrociata (cross-correlation) tra due GD
- applicazione di vari filtri digitali, in modo causale, anti-causale o bifronte

Calcoli (menu “Computations”)

Può calcolarsi l’integrale definito (in un intervallo di indici o di ascissa) di un GD.
Per i GD che rappresentano istogrammi o densità di probabilità, si possono calcolare media,
deviazione standard, integrale totale, asimmetria e curtosi.

Varie operazioni sui GD

Ai GD possono essere applicate varie procedure. A parte la derivata e l’integrale (eseguito con
semplice sommatoria), ci sono:
- operazioni sugli assi x e/o y (quadrato, radice quadrata, logaritmo decimale, logaritmo
naturale, inverso,…)
- operazioni lineari su due GD (a*GD1+b*GD2+c) [se si vuole, si può ignorare il
secondo, con b=0, ma non il primo]
- operazioni non-lineari su due GD (prodotto, divisione, minimo, massimo)
- operazioni su GD complessi (il supporto ai GD complessi e`, per ora, limitato)
- integrali, derivate, convoluzioni, FFT (che può produrre un GD complesso)
- selezioni, basate sull’ampiezza, sul valore dell’ascissa e/o sul valore dell’indice dello
stesso GD o di un altro
- operazioni di insieme (cancellamento, rotazione e “inversione” per un singolo GD,
concatenazione di due GD.

Segnali teorici, simulati e distribuzioni

Possono crearsi GD contenenti decine di tipi di segnali teorici, simulati o distribuzioni di
probabilità.


Esercizi

Gli esercizi sono raccolti in vari capitoli, in file rtf. Possono essere letti con un normale word
processor, come Word, WordPad e simili, o anche visualizzati nella finestra di testo della
finestra principale.


260
Programmi esterni

E` possibile aggiungere programmi esterni che creano o modificano GD, oppure fanno calcoli
su GD. Il modello è client-server, per cui SnagLab agisce da client rispetto a dll esterne che
fungono da server di procedure.
Il nome delle dll esterne ammissibili è
csnagdll.dll per il C/C++
fsnagdll.dll per il Fortran
bsnagdll.dll per il Visual Basic
Tali file devono essere nel folder del programma SnagLab.
Ciascuna dll può fornire fino a 50 programmi.
Viene fornita un progetto “template” in Visual C++ per la costruzione della csnagdll.dll .
Il colloquio client-server funziona così:
- il client chiede quali sono le procedure disponibili
- il server gli manda la lista che il client visualizza
- il client sceglie quale procedura vuole e su quali GD deve operare
- il server manda le liste dei parametri reali e interi necessari, fornendo dei valori default
- il client visualizza la lista dei parametri (“di input”) e l’utente (il client) digita i valori (se
sono diversi dai default)
- il server fornisce l’eventuale GD di uscita e gli eventuali parametri di output
(visualizzati dal client).
Per ora, solo GD di tipo 3 sono gestibili.
Le routine basilari (che devono essere modificate dall’utente) sono
getcepl
getextprneeds
cextpr3
oltre a crea_prog_list, tutte contenute in csnagdll.cpp .
Il progetto e` contenuto in uno zip file. Occorre 260ompattarlo, girarlo in Visual C++ e fare le
modifiche.

Altre dll saranno fornite per accedere a dati e procedure esterne (per esempio snagframedll.dll
e snagr87.dll per accedere ai dati di antenne gravitazionali)


261
Tabelle
Distribuzione cumulativa normale standardizzata

z
centesimi z
0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0 0.500000 0.503989 0.507978 0.511967 0.515953 0.519939 0.523922 0.527903 0.531881 0.535856
0.1 0.539828 0.543795 0.547758 0.551717 0.555670 0.559618 0.563559 0.567495 0.571424 0.575345
0.2 0.579260 0.583166 0.587064 0.590954 0.594835 0.598706 0.602568 0.606420 0.610261 0.614092
0.3 0.617911 0.621719 0.625516 0.629300 0.633072 0.636831 0.640576 0.644309 0.648027 0.651732
0.4 0.655422 0.659097 0.662757 0.666402 0.670031 0.673645 0.677242 0.680822 0.684386 0.687933
0.5 0.691462 0.694974 0.698468 0.701944 0.705402 0.708840 0.712260 0.715661 0.719043 0.722405
0.6 0.725747 0.729069 0.732371 0.735653 0.738914 0.742154 0.745373 0.748571 0.751748 0.754903
0.7 0.758036 0.761148 0.764238 0.767305 0.770350 0.773373 0.776373 0.779350 0.782305 0.785236
0.8 0.788145 0.791030 0.793892 0.796731 0.799546 0.802338 0.805106 0.807850 0.810570 0.813267
0.9 0.815940 0.818589 0.821214 0.823814 0.826391 0.828944 0.831472 0.833977 0.836457 0.838913
1 0.841345 0.843752 0.846136 0.848495 0.850830 0.853141 0.855428 0.857690 0.859929 0.862143
1.1 0.864334 0.866500 0.868643 0.870762 0.872857 0.874928 0.876976 0.878999 0.881000 0.882977
1.2 0.884930 0.886860 0.888767 0.890651 0.892512 0.894350 0.896165 0.897958 0.899727 0.901475
1.3 0.903199 0.904902 0.906582 0.908241 0.909877 0.911492 0.913085 0.914656 0.916207 0.917736
1.4 0.919243 0.920730 0.922196 0.923641 0.925066 0.926471 0.927855 0.929219 0.930563 0.931888
1.5 0.933193 0.934478 0.935744 0.936992 0.938220 0.939429 0.940620 0.941792 0.942947 0.944083
1.6 0.945201 0.946301 0.947384 0.948449 0.949497 0.950529 0.951543 0.952540 0.953521 0.954486
1.7 0.955435 0.956367 0.957284 0.958185 0.959071 0.959941 0.960796 0.961636 0.962462 0.963273
1.8 0.964070 0.964852 0.965621 0.966375 0.967116 0.967843 0.968557 0.969258 0.969946 0.970621
1.9 0.971284 0.971933 0.972571 0.973197 0.973810 0.974412 0.975002 0.975581 0.976148 0.976705
2 0.977250 0.977784 0.978308 0.978822 0.979325 0.979818 0.980301 0.980774 0.981237 0.981691
2.1 0.982136 0.982571 0.982997 0.983414 0.983823 0.984222 0.984614 0.984997 0.985371 0.985738
2.2 0.986097 0.986447 0.986791 0.987126 0.987455 0.987776 0.988089 0.988396 0.988696 0.988989
2.3 0.989276 0.989556 0.989830 0.990097 0.990358 0.990613 0.990863 0.991106 0.991344 0.991576
2.4 0.991802 0.992024 0.992240 0.992451 0.992656 0.992857 0.993053 0.993244 0.993431 0.993613
2.5 0.993790 0.993963 0.994132 0.994297 0.994457 0.994614 0.994766 0.994915 0.995060 0.995201
2.6 0.995339 0.995473 0.995603 0.995731 0.995855 0.995975 0.996093 0.996207 0.996319 0.996427
2.7 0.996533 0.996636 0.996736 0.996833 0.996928 0.997020 0.997110 0.997197 0.997282 0.997365
2.8 0.997445 0.997523 0.997599 0.997673 0.997744 0.997814 0.997882 0.997948 0.998012 0.998074
2.9 0.998134 0.998193 0.998250 0.998305 0.998359 0.998411 0.998462 0.998511 0.998559 0.998605
3 0.998650 0.998694 0.998736 0.998777 0.998817 0.998856 0.998893 0.998930 0.998965 0.998999
3.1 0.999032 0.999064 0.999096 0.999126 0.999155 0.999184 0.999211 0.999238 0.999264 0.999289
3.2 0.999313 0.999336 0.999359 0.999381 0.999402 0.999423 0.999443 0.999462 0.999481 0.999499
3.3 0.999517 0.999533 0.999550 0.999566 0.999581 0.999596 0.999610 0.999624 0.999638 0.999650
3.4 0.999663 0.999675 0.999687 0.999698 0.999709 0.999720 0.999730 0.999740 0.999749 0.999758
3.5 0.999767 0.999776 0.999784 0.999792 0.999800 0.999807 0.999815 0.999821 0.999828 0.999835
3.6 0.999841 0.999847 0.999853 0.999858 0.999864 0.999869 0.999874 0.999879 0.999883 0.999888
3.7 0.999892 0.999896 0.999900 0.999904 0.999908 0.999912 0.999915 0.999918 0.999922 0.999925
3.8 0.999928 0.999930 0.999933 0.999936 0.999938 0.999941 0.999943 0.999946 0.999948 0.999950
3.9 0.999952 0.999954 0.999956 0.999958 0.999959 0.999961 0.999963 0.999964 0.999966 0.999967
4 0.999968 0.999970 0.999971 0.999972 0.999973 0.999974 0.999975 0.999976 0.999977 0.999978
4.1 0.999979 0.999980 0.999981 0.999982 0.999983 0.999983 0.999984 0.999985 0.999985 0.999986
262
Valori del
2
_ per un dato livello di fiducia

Livello di fiducia 0.9 0.95 0.99 0.995 0.999 0.9995 0.9999
Gradi di libertà
1 2.706 3.841 6.635 7.879 10.827 12.115 15.134
2 4.605 5.991 9.210 10.597 13.815 15.201 18.425
3 6.251 7.815 11.345 12.838 16.266 17.731 21.104
4 7.779 9.488 13.277 14.860 18.466 19.998 23.506
5 9.236 11.070 15.086 16.750 20.515 22.106 25.751
6 10.645 12.592 16.812 18.548 22.457 24.102 27.853
7 12.017 14.067 18.475 20.278 24.321 26.018 29.881
8 13.362 15.507 20.090 21.955 26.124 27.867 31.827
9 14.684 16.919 21.666 23.589 27.877 29.667 33.725
10 15.987 18.307 23.209 25.188 29.588 31.419 35.557
11 17.275 19.675 24.725 26.757 31.264 33.138 37.365
12 18.549 21.026 26.217 28.300 32.909 34.821 39.131
13 19.812 22.362 27.688 29.819 34.527 36.477 40.873
14 21.064 23.685 29.141 31.319 36.124 38.109 42.575
15 22.307 24.996 30.578 32.801 37.698 39.717 44.260
16 23.542 26.296 32.000 34.267 39.252 41.308 45.926
17 24.769 27.587 33.409 35.718 40.791 42.881 47.559
18 25.989 28.869 34.805 37.156 42.312 44.434 49.185
19 27.204 30.144 36.191 38.582 43.819 45.974 50.787
20 28.412 31.410 37.566 39.997 45.314 47.498 52.383
21 29.615 32.671 38.932 41.401 46.796 49.010 53.960
22 30.813 33.924 40.289 42.796 48.268 50.510 55.524
23 32.007 35.172 41.638 44.181 49.728 51.999 57.067
24 33.196 36.415 42.980 45.558 51.179 53.478 58.607
25 34.382 37.652 44.314 46.928 52.619 54.948 60.136
26 35.563 38.885 45.642 48.290 54.051 56.407 61.667
27 36.741 40.113 46.963 49.645 55.475 57.856 63.166
28 37.916 41.337 48.278 50.994 56.892 59.299 64.656
29 39.087 42.557 49.588 52.335 58.301 60.734 66.152
30 40.256 43.773 50.892 53.672 59.702 62.160 67.623
31 41.422 44.985 52.191 55.002 61.098 63.581 69.097
32 42.585 46.194 53.486 56.328 62.487 64.993 70.564
33 43.745 47.400 54.775 57.648 63.869 66.401 72.029
34 44.903 48.602 56.061 58.964 65.247 67.804 73.475
35 46.059 49.802 57.342 60.275 66.619 69.197 74.925
36 47.212 50.998 58.619 61.581 67.985 70.588 76.372
37 48.363 52.192 59.893 62.883 69.348 71.971 77.800
38 49.513 53.384 61.162 64.181 70.704 73.350 79.218
39 50.660 54.572 62.428 65.475 72.055 74.724 80.637
40 51.805 55.758 63.691 66.766 73.403 76.096 82.055
41 52.949 56.942 64.950 68.053 74.744 77.458 83.475
42 54.090 58.124 66.206 69.336 76.084 78.818 84.874
43 55.230 59.304 67.459 70.616 77.418 80.174 86.272
44 56.369 60.481 68.710 71.892 78.749 81.527 87.672
45 57.505 61.656 69.957 73.166 80.078 82.873 89.070

263

Bibliografia

In genere sono indicati solo gli argomenti più caratterizzanti.

Generale

Autore/Editore Titolo Argomenti/Commenti

vari / CRC –
Chapman&Hall
Digital Signal
Processing
Handbook

Poularikas (ed.by) Handbook of
Formulas and
Tables for Signal
Processing

Bendat e Piersol /
Wiley
Random Data:
Analysis and
Measurement
Procedures

MatLab Statistics Toolbox
MatLab Signal
Processing
Toolbox



Segnali deterministici – Filtraggio

Autore/Editore Titolo Argomenti/Commenti

B.P. Lathy /
Berkeley-
Cambridge
Signal
Processing and
Linear Systems
State space analysis
Oppenheim-
Willsky / Prentice-
Hall
Signals and
Systems
Modulation, Partial fraction expansion
A.V.Oppenheim,
R.W.Schafer,
J.R.Buck /
Prentice Hall
1999
Discrete-Time
Signal
Processing

Haykin – Van
Veen
Signals and
Systems
Applications to communication, filters
and equalizers and feed-back systems
Hsu / Shaum Signals and
Systems
State Space Analysis, Mathematical
Reviews
264
Hayes / Shaum Digital Signal
Processing
Implementation, Filter design
Karu / Zizi Press Signals and
Systems Made
Ridiculously
Simple
Bode plots, Deconvolution, Causality
and Stability, Feedback, Modulation
Lyons / Prentice
Hall
Understanding
Digital Signal
Processing
Advanced sampling techniques, Signal
averaging, Digital data formats, DSP
tricks
White Digital Signal
Processing
Coefficient precision
Britton
Rorabaugh / TAB
Books
Digital Filter
Designer’s
Handbook
Bilinear transformations, Practical
considerations
S.W. Smith /
California
Technical
Publishing

The Scientist and
Engineer’s Guide
to Digital Signal
Processing

Applications to audio processing, image
processing, neural networks, DSPs
S.T. Karris /
Orchard
Signals and
Systems
Inverse Laplace transform, Circuit
analysis, State variables
R.L.Allen,
D.W.Mills
SIGNAL
ANALYSIS
TIME,
FREQUENCY,
SCALE,
AND
STRUCTURE

Generalized Fourier Transform,
Frequency domain analysis, Time-
Frequency Signal Transform, Time-
Scale signal transform, Mixed domain
signal analysis
A. Mertins / Wiley Signal Analysis
Wavelets, Filter
Banks,
Time-Frequency
Transforms and
Applications

Hartley, Hilbert, Band-pass signals,
Discrete signals representations,
whitening transforms, power spectrum
and autocorrelation estimation,
uncertainty principle, wavelet transform
MatLab Filter Design Fixed point filters, adaptive filters,
multirate filters, frequency
transformations

Segnali stocastici

Autore/Editore Titolo Argomenti/Commenti

R.M. Howard /
Wiley
Principles of
Random Signal
Analysis and Low
Noise Design
Power spectral density analysis,
memoryless transformations of
random processes, low noise design
265
P.Z. Peebles Probability,
random variables,
and random signal
principles
Probability, Multiple random variables,
random processes, Linear systems
with random inputs, Optimum linear
systems, Noise in practical systems
D.S.G. Pollock /
Academic Press
A Handbook of
Time-Series
Analysis,
Signal Processing
and Dynamics
Polynomial methods, State space
equations, Least square methods,
Linear filters, ARMA processes,
Statistical distributions, Estimation
theory
J.D. Hamilton /
Princeton
University Press
Time Series
Analysis
ARMA processes, forecasting,
spectral analysis, Asymptotic
distributions, Bayesian analysis,
Kalman filter, Non-stationary time
series
Hsu / Shaum Theory and
Problems of
Probability,
Random Variables,
and Random
Processes
Probability, Random processes
processing and analysis, Estimation
theory, Decision theory, Queueing
theory
S.V. Vaseghi /
Wiley
Advanced Digital
Signal Processing
and Noise
Reduction
Probability models, Bayesian
estimation, Markov models, Wiener
filters, Adaptive filters, Prediction,
Power spectrum and correlation,
Interpolation, Impulsive noise,
Equalization
I.Glover, P.Grant /
Prentice Hall
Digital
Communications
Digital communication, Decision
theory, Optimum filtering, Information
theory, TDMA, CDMA, PAL, JPEG,
MPEG, Networks
A. Papoulis, S.
Unnikrishna Pillai,
McGraw-Hill 2002
Probability,
Random Variables
and Stochastic
Processes

Hwei P. Hsu /
McGraw-Hill,
1997
Theory and
Problems of
Probability,
Random Variables,
and Random
Processes

MatLab Financial Time
Series Toolbox

MatLab GARCHToolbox


Aspetti matematici

Autore/Editore Titolo Argomenti/Commenti
266

S.M.Kay /
Prentice Hall
Fundamentals of
Statistical Signal
Processing:
Estimation
Theory
Estimation, Maximum likelihood, Least
squares, Linear Models, Kalman filter,
Bayesian philosophy
R. Baraniuk Signals and
Systems
Hilbert spaces, convergence,
transforms (?)


Immagini

Autore/Editore Titolo Argomenti/Commenti

R.C. Gonzales, R.E.
Woods / Prentice Hall
Digital Image
Processing
Visual perception, Image
enhancement in space and
frequency domains, Image
restoration, Wavelet, Image
compression, Representation and
description, Object recognition
W.K.Pratt / Wiley Digital Image
Processing
Continuous and digital image
characterization, Linear processing,
Image improvement, Image
analysis, PIKS software
Hany Farid /
www.cs.dartmouth.edu/
~farid/tutorials/
Fundamentals
of Image
Processing
Linear filtering, Wiener filter, Non-
linear filtering, Median filter,
Dithering, Motion estimation,
Principal components analysis
A. Erhardt-Ferron Theory and
Applications of
Digital Image
Processing
Basic, practical
Adhemar Bultheel

Wavelets with
applications in
signal and
image
processing
Heisenberg uncertainty, Time-
frequency plane, Filter banks,
Multiresolution, Multidimensional
wavelets, Signal processing, Image
processing
G.X.Ritter, J.N.Wilson /
CRC Press
Handbook of
Computer Vision
Image algebra, Image
enhancement, Edge detection,
Thining and skeletonizing,
Morphological transforms, Linear
image transform, Pattern matching,
Feature description, Neural network
and cellular automata
MatLab Image
processing
toolbox


267



Altro

Autore/Editore Titolo Argomenti/Commenti

H.L. Van Trees / Wiley Detection,
Estimation,
and
Modulation
Theory, Part I

Classical detection and
Estimation Theory, Random
processes, Estimation of signal
parameters and continuous
waveforms
G. Wornell / Prentice Hall Signal
Processing
with Fractals: a
Wavelet-Based
Approach
Statistically self-similar
processes, Fractal modulation
F. Hlawatsch, G. Matz /
http://www.nt.tuwien.ac.at/
dspgroup/tfgroup/time.html
Time-
Frequency
Signal
Processing:
A Statistical
Perspective
Molti altri articoli nel sito
C. Torrente, C.P.Compo /
Bulletin of the American
Meteorological Society,
Vol. 79, No. 1, January
1998
A Practical
Guide to
Wavelet
Analysis
Semplice introduzione
H.Tong / Oxford Science
Pubblications
Non-linear
Time Series

MatLab (5) Higher-Order
Spectral
Analysis
Toolbox

MatLab Wavelet
Toolbox

MatLab Fuzzy Logic
Toolbox

MatLab Neural
Network
Toolbox

MatLab System
Identification
Toolbox




268
Indice Analitico


A
aliasing ...................................................................... 165
analisi preliminare ..................................................... 162
asimmetria................................................................... 41
autocorrelazione ........................................................ 171
B
bispettro .................................................................... 215
C
campionamento ............................................................. 8
campionamento non uniforme .................................. 247
coefficiente di correlazione ........................................... 52
coerenza .................................................................... 189
consistenza .................................................................. 56
convoluzione ................................................... 16; 19; 22
convoluzione discreta.................................................. 75
correttezza ................................................................... 56
covarianza ................................................................... 51
curtosi ......................................................................... 41
D
densità marginali .................................................... 49; 50
deviazione standard ..................................................... 37
diagramma di fase ..................................................... 245
distibuzione
t di Student ............................................................. 45
distorsione ................................................................... 56
distribuzione
binomiale ............................................................... 38
cumulativa ............................................................. 41
del chi quadro ........................................................ 42
di Cauchy ................................................................ 44
di Gauss o normale ................................................ 42
di Poisson .............................................................. 38
di Raleigh ................................................................ 44
esponenziale ........................................................... 43
uniforme ................................................................ 41
disturbi impulsivi ...................................................... 208
disuguaglianza di Chebyshev ........................................ 40
disuguaglianza di Schwartz ......................................... 53
E
efficienza ..................................................................... 56
equazioni alle differenze ............................................. 86
equazioni di Yule e Walker ....................................... 186
esperimenti controllati .................................................. 55
esperimenti osservativi ................................................. 55
evoluzione libera ........................................................ 92
F
falso allarme ............................................................. 199
FFT ............................................................................. 85
filtro
a mediana ............................................................ 208
a sfasamento nullo ............................................... 205
adattato ................................................................ 192
di Wiener ............................................................ 203
FIR ...................................................................... 205
IIR205
in frequenza ......................................................... 206
lineare per immagini ........................................... 229
sbiancante............................................................ 196
filtro di quadratura .................................................... 130
fit armonico .............................................................. 246
fit lineare .................................................................... 65
frequenza di Nyquist ................................................ 163
funzione caratteristica ................................................ 47
funzione di trasferimento ............................................ 26
funzione di trasferimento discreta .............................. 87
funzione di verosimiglianza ....................................... 59
G
GD ............................................................................ 255
I
immagini .................................................................. 225
indipendenza stocastica ............................................... 50
inferenza statistica ....................................................... 55
intervallo di confidenza................................................ 63
ipotesi alternativa ......................................................... 71
ipotesi nulla ................................................................. 71
istogramma ............................................................... 169
K
kurtosis ....................................................................... 41
L
likelihood ................................................................... 59
livello di confidenza ..................................................... 63
livello di fiducia ..................................................... 63; 72
livello di significatività .............................................. 72
lock-in ...................................................................... 242
269
M
massima verosimiglianza .......................................... 58
Matlab ....................................................................... 251
matrice di covarianza .................................................... 52
mediana ....................................................................... 39
minimi quadrati ......................................................... 56
moda ........................................................................... 39
P
periodicità coerente ................................................... 237
periodicità di eventi ................................................... 250
periodicità non coerente .................................... 237; 249
principio dei minimi quadrati ........................................ 66
Principio di Ortogonalità .............................................. 57
processi stocastici ..................................................... 134
autocorrelazione .......................................... 135; 138
autocovarianza ..................................................... 136
bispettro ............................................................... 139
correlazione incrociata ......................................... 137
covarianza incrociata ........................................... 137
cumulante del primo ordine ................................. 138
cumulante del quarto ordine ................................ 138
cumulante del secondo ordine .............................. 138
cumulante del terzo ordine ................................... 138
e sistemi lineari .................................................... 141
ergodicità ............................................................. 139
normali ................................................................ 144
ortogonali ............................................................. 137
processi ARMA ................................................... 147
processo AR(1) complesso .................................. 154
processo AR(1) reale ........................................... 152
processo AR(2) .................................................... 157
processo di Poisson .............................................. 160
rumore bianco ...................................................... 145
rumore bianco discreto ........................................ 149
scorrelati .............................................................. 137
spettro di potenza ......................................... 136; 138
spettro incrociato ................................................. 137
stazionari ............................................................. 137
trasformazioni ...................................................... 140
trispettro............................................................... 139
pulsazione normalizzata .............................................. 84
R
rapporto segnale/rumore ........................................... 191
risposta forzata ............................................................ 92
risposta impulsiva ................................................. 75; 91
rivelazione................................................................. 191
robustezza .................................................................... 56
ROC (Receiver Operating Characteristics ................ 200
rumore ....................................................................... 190
rumore di quantizzazione .......................................... 167
S
segnale analitico ........................................................ 130
segnali
analogici e digitali ................................................... 9
autocorrelazione .................................................. 129
continui e discreti .................................................... 8
convoluzione ....................................................... 126
correlazione ......................................................... 126
cross-energia ....................................................... 126
delta................................................................. 10; 25
deterministici o casuali ............................................ 9
distanza ............................................................... 126
durata .................................................................. 124
energia ................................................................. 124
esponenziale complesso ........................................ 11
esponenziale decrescente ...................................... 25
esponenziale simmetrico ....................................... 25
gaussiana ............................................................... 23
gradino .............................................................. 9; 25
impulsivi ............................................................. 124
larghezza ............................................................. 124
lorentziana ............................................................. 25
pacchetto gaussiano .............................................. 23
pacchetto rettangolare ........................................... 24
periodici .................................................................. 9
permanenti .......................................................... 133
posizione ............................................................. 124
prodotto vettoriale ............................................... 126
reali e complessi ...................................................... 9
rettangolo .............................................................. 24
sinusoidale ............................................................ 10
transitori .............................................................. 124
sistemi
AR del primo ordine (complesso) ....................... 112
AR del primo ordine (reale) ................................ 105
AR del secondo ordine ........................................ 115
AR o auto-regressivi ............................................. 77
ARMA .................................................................. 77
ARMA (1,1) ........................................................ 118
causali ................................................................... 14
di ordine 0 ............................................................ 95
di Volterra ........................................................... 123
in parallelo ............................................................ 13
in serie ................................................................... 12
lineari .................................................................... 14
lineari continui ..................................................... 16
MA del primo ordine............................................. 95
MA del secondo ordine ....................................... 102
MA o a media mobile ............................................ 77
non lineari ........................................................... 123
passa-alto continuo ................................................ 31
passa-basso continuo ............................................. 29
passa-tutto ............................................................. 96
risonanza continua ................................................ 33
stabili..................................................................... 15
statici o dinamici ................................................... 13
tempo-invarianti .................................................... 15
skewness..................................................................... 41
Snag .......................................................................... 254
SnagLab .................................................................... 255
spettro di energia ...................................................... 129
spettro di potenza ..................................................... 173
spettro impulsivo ....................................................... 250
stabilità ........................................................................ 94
stima ........................................................................... 55
correlazione incrociata ........................................ 188
dei parametri di una retta sperimentale ............. 65
del valor medio .................................................... 62
della varianza ....................................................... 64
dell'autocorrelazione ........................................... 171
dello spettro di potenza ....................................... 173
270
spettro incrociato ................................................. 188
stima bayesiana ............................................................ 61
stima spettrale
finestramento ....................................................... 175
incertezza ............................................................. 180
non parametrica ................................................... 174
parametrica .......................................................... 186
risoluzione ........................................................... 175
stimatore ..................................................................... 56
T
teorema
Bayes ..................................................................... 61
del campionamento .............................................. 163
teoria della rivelazione .............................................. 199
test statistici ............................................................... 71
trasformata
di Fourier .............................................................. 19
di Fourier discreta ................................................. 85
di Fourier per dati discreti ..................................... 84
di Hilbert ............................................................. 130
di Laplace ............................................................. 18
wavelet ................................................................ 209
z 80
V
valor medio .......................................................... 37; 39
valor medio di g(x) ...................................................... 39
valore aspettato ..................................................... 37; 39
variabili casuali
continue ................................................................ 39
discrete ................................................................. 37
multiple ................................................................. 49
varianza ...................................................................... 37


2

Sommario
Introduzione: segnali e sistemi ...................................................................................... 7 Introduzione ........................................................................................................... 7 1.1 1.2 Segnali.................................................................................................................... 8 1.2.1 Classificazione dei segnali ................................................................................. 8 1.2.2 Segnali notevoli ................................................................................................. 9 1.3 Sistemi.................................................................................................................. 12 1.3.1 Classificazione dei sistemi ............................................................................... 13 2 Argomenti introduttivi.................................................................................................. 16 2.1 Sistemi lineari continui ........................................................................................ 16 2.1.1 Trasformata di Laplace .................................................................................... 18 2.1.2 Trasformata di Fourier ..................................................................................... 19 2.1.3 La funzione di trasferimento ............................................................................ 26 2.1.4 Semplici sistemi lineari continui ...................................................................... 29 2.2 Teoria delle probabilità ........................................................................................ 37 2.2.1 Variabili casuali ............................................................................................... 37 2.2.2 Variabili casuali discrete .................................................................................. 37 2.2.3 Variabili casuali continue ................................................................................ 39 2.2.4 Somma di variabili casuali indipendenti e funzione caratteristica................... 46 2.2.5 Distribuzione di una funzione di variabile casuale .......................................... 48 2.2.6 Variabili casuali multiple e covarianza ............................................................ 49 2.3 Statistica ............................................................................................................... 56 2.3.1 L’inferenza statistica - Stima dei parametri ..................................................... 56 2.3.2 Il Principio dei Minimi Quadrati (e del minimo χ2) ......................................... 57 2.3.3 Il Principio della Massima Verosimiglianza .................................................... 59 2.3.4 La Stima Bayesiana.......................................................................................... 62 2.3.5 Stima del valor medio ...................................................................................... 63 2.3.6 Stima della varianza ......................................................................................... 65 2.3.7 Esempi di stima ai minimi quadrati: stima dei parametri di una retta sperimentale (“fit lineare”) .......................................................................................... 66 2.3.8 Esempi di stima ai minimi quadrati: fit lineare generale – fit polinomiale ..... 69 2.3.9 Media pesata .................................................................................................... 71 2.3.10 Test statistici ................................................................................................ 72 2.3.11 Test di consistenza con un valore teorico .................................................... 73 2.3.12 Test di consistenza tra due valori sperimentali ............................................ 73 2.3.13 Test del 2 .................................................................................................... 74 3 Sistemi discreti ............................................................................................................. 76 3.1 Introduzione ......................................................................................................... 76 3.2 Casi particolari ..................................................................................................... 78 3.2.1 Semplice applicazione di sistemi MA e AR .................................................... 79 3.3 Trasformata z ....................................................................................................... 81 3.3.1 Analogia con la trasformata di Laplace ........................................................... 82 3.3.2 Proprietà della trasformata z ............................................................................ 82 3.3.3 Alcune trasformate z ........................................................................................ 84 3.4 Trasformata di Fourier discreta ed FFT ............................................................... 85 3.4.1 La trasformata di Fourier per dati discreti (DTFT) .......................................... 85 3.4.2 La DFT (e la FFT)............................................................................................ 86 3.5 Equazioni alle differenze ..................................................................................... 87 3 1

3.6 Funzione di trasferimento discreta ....................................................................... 88 3.6.1 Differenze e derivate ........................................................................................ 90 3.7 Risposta di un sistema discreto ............................................................................ 92 3.7.1 Risposta impulsiva ........................................................................................... 92 3.7.2 Risposta forzata................................................................................................ 92 3.7.3 Evoluzione libera ............................................................................................. 93 3.8 Stabilità ................................................................................................................ 95 3.9 Sistemi semplici ................................................................................................... 96 3.9.1 Sistema di ordine 0........................................................................................... 96 3.9.2 Sistema MA del primo ordine .......................................................................... 96 3.9.3 Due sistemi MA del primo ordine in cascata: MA del secondo ordine ......... 103 3.9.4 Sistema AR del primo ordine (reale) ............................................................. 106 3.9.5 Sistema AR del primo ordine (complesso) .................................................... 113 3.9.6 Sistema AR del secondo ordine ..................................................................... 116 3.9.7 Semplici sistemi ARMA ................................................................................ 119 3.10 Sistemi non-lineari – i sistemi di Volterra ......................................................... 124 4 Segnali transitori ....................................................................................................... 125 4.1 Energia, posizione e lunghezza di un segnale transitorio .................................. 125 4.2 Convoluzione, cross-correlazione e distanza di due impulsi ............................. 127 Trasformata di Fourier di un segnale ad energia finita ...................................... 128 4.3 4.4 Autocorrelazione e spettro di energia ................................................................ 130 4.5 Segnale analitico ................................................................................................ 131 4.6 Segnali permanenti............................................................................................. 134 5 Processi stocastici...................................................................................................... 135 Introduzione ....................................................................................................... 135 5.1 5.1.1 Definizione..................................................................................................... 135 5.1.2 Funzioni del secondo ordine .......................................................................... 136 5.1.3 Il caso di due processi .................................................................................... 137 5.1.4 Stazionarietà, ergodicità ................................................................................. 138 5.1.5 Esempi............................................................................................................ 141 5.2 Trasformazioni di processi stocastici ................................................................. 141 5.2.1 Sistema statico (senza memoria) .................................................................... 142 5.2.2 Sistema lineare (tempo invariante) ................................................................ 142 5.2.3 Un caso particolare: il derivatore ................................................................... 144 5.3 Processi stocastici normali ................................................................................. 145 5.3.1 Proprietà fondamentali ................................................................................... 145 5.3.2 Il rumore bianco ............................................................................................. 146 5.3.3 Processi stocastici normali e sistemi lineari................................................... 146 5.4 Processi discreti: processi ARMA ..................................................................... 148 5.4.1 Résumé dei risultati........................................................................................ 148 5.4.2 Rumore bianco discreto ................................................................................. 150 5.4.3 Processi AR, MA e ARMA ........................................................................... 153 5.4.4 Processo AR del primo ordine (reale) ............................................................ 153 5.4.5 Processo AR del primo ordine (complesso)................................................... 155 5.4.6 Processo AR del secondo ordine.................................................................... 158 5.5 Processo di Poisson ............................................................................................ 161 6 Analisi statistica dei segnali ...................................................................................... 163 6.1 Il campionamento............................................................................................... 164 6.1.1 Teorema del campionamento ......................................................................... 164 6.1.2 Aliasing e filtri anti-aliasing .......................................................................... 166 4

6.1.3 Generalizzazione ............................................................................................ 167 6.1.4 Il caso dei segnali complessi .......................................................................... 167 6.1.5 Rumore di quantizzazione.............................................................................. 168 6.2 Caratteristiche statiche – Istogramma, momenti campionari ............................. 170 6.3 Autocorrelazione ................................................................................................ 172 6.4 Spettro di potenza .............................................................................................. 174 6.4.1 Stimatori spettrali non parametrici................................................................. 175 6.4.2 Stimatori spettrali parametrici........................................................................ 187 6.5 Cross-correlazione e cross-spettro ..................................................................... 189 6.6 Coerenza ............................................................................................................ 190 7 Filtraggio e trasformazione dei dati .......................................................................... 191 7.1 Segnali e rumori, rapporto segnale/rumore ........................................................ 191 7.2 Il filtro adattato .................................................................................................. 193 7.2.1 Caso del rumore bianco ................................................................................. 193 7.2.2 Altre dimostrazioni ........................................................................................ 196 7.2.3 Caso generale ................................................................................................. 197 7.3 Teoria della rivelazione (Detection Theory) ...................................................... 200 7.4 Filtro di Wiener .................................................................................................. 204 7.5 Realizzazione di filtri ......................................................................................... 206 7.5.1 Filtri FIR ........................................................................................................ 206 7.5.2 Filtri IIR ......................................................................................................... 206 7.5.3 Filtri a sfasamento nullo................................................................................. 206 7.5.4 Filtri in frequenza........................................................................................... 207 I disturbi impulsivi - Filtro a mediana ............................................................... 209 7.6 8 Cenno alla trasformata wavelet ................................................................................. 210 9 Cenni al caso di dati non stazionari .......................................................................... 211 9.1 Analisi tempo-frequenza .................................................................................... 212 9.2 Filtri adattivi....................................................................................................... 213 10 Cenni ai modelli non lineari ...................................................................................... 214 10.1 Filtri non lineari ................................................................................................. 215 10.2 Il bispettro .......................................................................................................... 216 11 Cenno all’image processing ...................................................................................... 226 11.1 Immagini ed elaborazione delle immagini ......................................................... 226 11.2 Elaborazione lineare delle immagini ................................................................. 230 11.3 La compressione JPEG ...................................................................................... 237 12 Un’applicazione: la ricerca di periodicità ................................................................ 238 12.1 Introduzione al problema ................................................................................... 238 12.2 Il periodogramma ............................................................................................... 240 12.3 Metodi parametrici ............................................................................................. 242 12.4 Il lock-in ............................................................................................................. 243 12.5 L’analisi di fase .................................................................................................. 246 12.6 Il fit armonico .................................................................................................... 247 12.7 Il caso del campionamento non uniforme .......................................................... 248 12.8 Periodicità non coerenti ..................................................................................... 250 12.9 Periodicità di eventi ........................................................................................... 251 13 Appendici ................................................................................................................... 252 Esercitazioni con Matlab................................................................................................ 252 Introduzione a Matlab ................................................................................................ 252 Snag............................................................................................................................ 255 Uso di SnagLab (versione VB) ...................................................................................... 256 5

....................................................................................................................................................................................................................... 256 Istallazione ........................................................................................ 263 Generale ................................. 268 6 ................................................ 256 Tabelle..................Introduzione ............................................................................... 264 Aspetti matematici ....................................... 263 Segnali stocastici............................ 263 Segnali deterministici – Filtraggio ............................................................................................................................................................................................................. 265 Immagini ........................................ 266 Altro ................ 261 Valori del  2 per un dato livello di fiducia...................................................................................................................................... 261 Distribuzione cumulativa normale standardizzata ................................................................................................................................................................................................................ 267 Indice Analitico.......................... 262 Bibliografia ................................................................................................................................ 256 Uso .........................................................................................................................................................

Ridurre l’eventuale “rumore” presente nei dati di misura. Queste misure sono in genere dei segnali variabili nel tempo. La matematica per trattare questo tipo di dati è in genere abbastanza diversa dall’analisi classica. Per far ciò si utilizzano modelli matematici che rappresentano (soltanto) le caratteristiche di nostro interesse (cioè “semplificano” la realtà) e ci si può utilmente avvalere di una serie di strumenti. trovando eventuali relazioni di causalità o di concausalità. Correlare1 tra loro le varie grandezze. nel significato di cercare relazioni e dipendenze statistiche tra di loro: non necessariamente “calcolare il coefficiente di correlazione” o la correlazione incrociata. Indagare su parametri interni del processo generatore. Ma i segnali. che vengono in genere prodotti in modo continuo dai processi fisici. Per lo sviluppo di questi modelli e strumenti ci si avvale della teoria dei sistemi e della teoria dei processi stocastici. soprattutto per la diffusione dei calcolatori digitali. 7 . con opportuni strumenti di misura.1 Introduzione: segnali e sistemi 1. Lo scopo di questo corso è presentare sinteticamente gli elementi della teoria dei sistemi discreti e la teoria dei processi stocastici che sono utili per l’analisi e l’elaborazione dei segnali. L’analisi di questi segnali consiste in genere in:     Descrivere in modo sintetico e significativo le grandezze in esame ed eventualmente la loro variazione temporale. per essere “trattati” dai calcolatori digitali devono essere discretizzati.1 Introduzione Si supponga di osservare. L’analisi dei segnali ha avuto negli ultimi cinquanta anni un grande sviluppo. 1 Qui il termine “correlare” è usato in senso lato. Sono quindi presentati vari strumenti sviluppati per questi scopi. una o più grandezze relative a un certo fenomeno fisico. una specie di “cassetta degli attrezzi” (toolbox) che potranno essere utilizzati a seconda della necessità.

... Tale procedura viene detta campionamento (sampling). esistono altre caratteristiche peculiari di un segnale: Si fa differenza tra un tempo assoluto e un tempo relativo..3) x(t1 ).xN {x1 .xN } è detta successione o serie temporale. Un segnale è detto a tempo continuo.... Talora gli indici non partono da 1. otteniamo i valori (1.x(t N ) Tali valori sono detti campioni (samples) e possono essere indicati come nella (1. Viene definita la frequenza di campionamento (sampling frequency) come (1. detta “tempo di campionamento” (sampling time). In questo caso parliamo di tempo assoluto.. 2 8 . particolarmente usato è il campionamento uniforme..t N . in cui è costante la differenza t  ti 1  ti .2) x1 ... in tal caso in genere viene rappresentato dalla successione di questi valori (1. cioè estraendo i valori del segnale continuo ad un insieme discreto di valori del tempo t1 .1) x(t ) pertiniziale  t  t finale È detto discreto se è definito per un insieme discreto dei valori della variabile t... o semplicemente continuo.x2 . faremo riferimento implicitamente sempre a segnali campionati uniformemente.. considerando il segnale continuo x(t ) .4) S  1 t Nel seguito.1 Classificazione dei segnali Oltre alla classificazione tra segnali continui e discreti. ma in genere viene descritto in tempo relativo.2.1. 3 Si distingue in genere tra tempo assoluto (indicata in genere con t) e distanza temporale (in genere indicata con  ).x2 .2). 1. considerando segnali discreti. Un segnale può essere osservato a un preciso tempo (tempo assoluto). per esempio prendendo l'origine temporale all'inizio del segnale.x(t2 ).. ovvero una differenza temporale.2 Segnali Un segnale è una funzione del tempo2 che rappresenta una grandezza fisica.t2 .. Spesso un segnale discreto viene ottenuto “campionando” un segnale continuo. per esempio una tensione elettrica (1.. ma possono prendere anche valori negativi (e ovviamente 0)... se è definito per tutti i valori di un intervallo della variabile reale tempo3 (t).

1. Scalare o vettoriale. Periodico.    Reale o complesso. abbiamo in genere un segnale discreto che non è periodico secondo questa definizione.6)  xi  xi  Deterministico o casuale (o stocastico): questa classificazione riguarda il “modello” del segnale: nel primo caso se è completamente definito a priori il suo valore. per esempio all’istante t=0: sono detti pari se x(t)=x(t) e dispari se x(t)=-x(-t). 9 .5) x(t )  x(t   ) e se il segnale è discreto4 (τ è un numero intero) (1. cioè il segnale ad un dato istante può assumere qualsiasi valore reale in un dato intervallo (segnale analogico) o solo un numero discreto di valori (segnale digitale). o da più numeri. se il segnale è continuo (τ è un numero reale) (1. Analogico o digitale. se esiste un valore τ tale che. tipicamente multipli di un certo valore detto “quanto di conversione analogicodigitale”: è questo il caso dei segnali acquisiti da un sistema digitale tramite un convertitore ADC.2. per tutti i valori di t. nel secondo se è definito solo statisticamente. diciamo che c’è assenza di segnale.2 Segnali notevoli  Segnale costante Continuo Discreto xi  c x(t )  c quando c = 0 . In genere i segnali digitali sono anche discreti nel tempo. cioè se è descritto da un singolo numero ad ogni istante. I segnali deterministici possono godere di particolari simmetrie rispetto a un certo istante.  Segnale a gradino Continuo t  0u (t )    t  0u (t )   Discreto i  0ui    i  0ui   4 In effetti questa definizione è restrittiva: se campioniamo un segnale continuo periodico. cioè a un dato istante il segnale è un numero reale o un numero complesso.

ma che vale 1 in 0. Nel caso continuo è una delta di Dirac. detto anche impulso unitario o funzione impulsiva discreta: Continuo Discreto i  0 i    i  0 i    t  e quindi u t         d  t ui  k   i k  Segnale sinusoidale Continuo Discreto xi  A  sin(  t  i   ) x(t )  A  sin(  t   ) Nella figura il segnale continuo è indicato con la linea continua e quello discreto con i pallini: Figura 1-1 10 . Segnale a delta. è la “derivata” (o la differenza nel caso discreto) del segnale a gradino. nel caso discreto è un segnale sempre nullo.

il più semplice segnale stocastico. Segnale esponenziale complesso5 Continuo Discreto  t  x(t )  A  exp    j  (  t   )      t  i  xi  A  exp    j  (  t  i   )      Rumore bianco. se ne parlerà nel capitolo sui processi stocastici. 5 Indichiamo con j l’unità immaginaria. 11 .

3 Sistemi Un sistema è un modello matematico di un dispositivo o di un processo fisico o di un algoritmo. il loro trattamento con i calcolatori digitali rende fondamentale lo studio di sistemi e segnali discreti. Figura 1-3 Si notino i simboli circolari che indicano i “nodi somma”. Input Sistema Output Figura 1-2 Mentre i processi fisici sono modellizzabili più naturalmente con sistemi continui ed i segnali fisici con segnali continui. di connettere dei sistemi sono i due seguenti:  Connessione in serie (o in cascata) 12 . semplici sistemi con due o più ingressi e una sola uscita che eseguono la somma dei segnali di ingresso. Più sistemi possono essere connessi insieme. Un sistema quindi è sostanzialmente un elaboratore di segnali. che connette uno o più segnali di ingresso (eccitazione o “input”) a uno o più segnali di uscita (risposta o “output”). e questo insieme può essere rappresentato da un nuovo sistema. Nella figura seguente è rappresentato un insieme di sistemi connessi tra di loro in vario modo. Modi particolarmente semplici. e spesso utili.1.

In altri termini l’effetto della “memoria” del sistema viene schematizzato supponendo che l’uscita a un dato istante non dipende solo dall’ingresso a quell’istante. Quindi. segnali e sistemi sono correlati tra di loro: i sistemi non ci serviranno solo per elaborare segnali. Un sistema dinamico è caratterizzato dalla presenza di stati interni. in cui le variabili di ingresso e di uscita sono tensioni elettriche. in certi casi. questa caratteristica equivale ad una impedenza d’ingresso infinita e un’impedenza di uscita nulla. non è così per un normale sistema fisico (basti pensare ad un circuito RC passa-basso.1 Classificazione dei sistemi Oltre alla classificazione tra sistemi continui e discreti (cioè che elaborano segnali discreti o continui). esistono altre caratteristiche peculiari di un sistema:  Statico o dinamico.F1 F2 Figura 1-4 FN  Connessione in parallelo F1 F2 FN Figura 1-5 Attenzione ! Nella teoria dei sistemi il comportamento di un sistema non è modificato dalla presenza degli altri a cui è connesso. Come vedremo in questo corso. ma. Come è noto. Per sistemi elettrici.3. per rappresentarli. la cui risposta dipende dall’impedenza d’ingresso del sistema che lo segue). ma anche dal valore dello “stato”. detto anche senza memoria o con memoria. mentre un sistema statico è completamente definito dall’equazione 13 . cioè se l’uscita ad un dato istante dipende solo dall’ingresso a quell’istante o no. 1.

Se supponiamo che all’ingresso ci sia un generatore di impedenza di uscita nulla e all’uscita un apparato di impedenza di ingresso infinita. corrisponde in uscita la stessa combinazione lineare delle relative uscite (principio di sovrapposizione). Tutti i sistemi fisici sono causali. in cui l’ingresso e l’uscita sia tensioni: in tal caso la variabile di stato è la carica del condensatore6. si )   s  G( x . se ad una qualsiasi combinazione lineare di differenti ingressi.(1. s )    s  G( x. Nel caso di sistemi discreti. la seconda equazione di stato (state equation). ad un dato istante. Se il sistema è lineare. La prima equazione viene detta equazione di uscita (output equation). nel caso di sistemi continui. il suo comportamento è assimilabile a un sistema ideale. allora 6 Il circuito in figura non ha le caratteristiche ideali di un sistema: infatti il suo “comportamento” varia a seconda di cosa mettiamo alla sua uscita ed inoltre esso “carica” il generatore che mettiamo all’ingresso. s ) i i 1  i (1. 14 .  yi  F ( xi .9) Un esempio di sistema dinamico è un circuito RC passa-basso. se l’uscita non precede l’ingresso. Se il sistema è dinamico.8)  y  F ( x. occorrono le due equazioni (1. non così quelli simulati su calcolatore.7) y  F ( x) dove x e y sono rispettivamente il vettore degli ingressi e quello delle uscite. invece. Lineare. s ) dove s è il vettore di stato in quell’istante. Indichiamo con L l’operatore che descrive il sistema. Figura 1-6   Causale.

  Tempo-invariante.(1. se il comportamento non varia nel tempo. 7 Nella teoria dei sistemi di controllo vengono definiti vari tipi di stabilità che non interessano la presente trattazione.10) L a1  x1  t   a2  x2  t   a1  L  x1  t   a2  L  x1 t        Nel caso di sistemi lineari. le equazioni (1. Stabile. corrisponde un’uscita di ampiezza limitata7.8) sono lineari. 15 . se ad un ingresso di ampiezza limitata. In tal caso le funzioni F e G sono indipendenti dal tempo.

Ricordiamo che una proprietà importante della funzione delta è (2.5) y  f x 16 . L’operazione di convoluzione (2. Un sistema lineare tempo-invariante è completamente definito una volta nota la risposta impulsiva. abbiamo che la risposta a un ingresso x(t) è  y  t   W  x  t    W   x( ) (t   )d          (2.4) y(t )   x(t ) f (t   )d       f ( )x(t   )d Questo integrale è l’integrale di convoluzione tra le funzioni x e f.1) f (t )  W[ (t )] dove W[ ] indica l’operazione effettuata dal sistema (l’operatore del sistema). Questo risultato può essere visto in questo modo: . f   e nulla per   0 .2 Argomenti introduttivi 2.2) x(t )   x( ) (t   )d   data la linearità del sistema. Per dimostrarlo.1 Sistemi lineari continui In questo capitolo ci occuperemo dei sistemi continui lineari tempo-invarianti. cioè la risposta del sistema a un input a delta di Dirac.3)   x( ) W  (t   ) d   x( ) f (t   )d     Possiamo anche porre (2. indichiamo questa risposta come (2.4) è spesso indicata nella forma abbreviata (2. Inoltre faremo riferimento essenzialmente a sistemi con un solo ingresso e una sola uscita.l’uscita di un sistema lineare è una media pesata del suo ingresso. il peso essendo dato dalla risposta impulsiva del sistema. Notiamo che se il sistema è causale.

Nella teoria dei sistemi.8)  Ak k 0 n d k y t  m d l x t    Bl dt k dt l l 0 In esso x è la variabile indipendente (ovvero l’ingresso. per esempio lo spostamento). Un sistema continuo lineare. Un esempio di un tale sistema può essere un circuito elettrico comprendente solo elementi lineari. con un ingresso e un’uscita. è nullo. la seconda nel caso in cui sia nullo lo stato. 17 . Un sistema continuo lineare a parametri concentrati con più ingressi e più uscite è descritto da un sistema di equazioni differenziali lineari. Se il sistema è tempo-invariante i coefficienti dell’equazione sono indipendenti dal tempo: (2.6) d  a  b  da db  b  a  dx dx dx Quindi se facciamo la convoluzione della funzione a per la derivata della b. spesso si trascura la presenza della risposta libera. Infine  (2.Esso gode delle proprietà o commutativa f  x  x  f o associativa a  b  c  (a  b)  c  a  (b  c) o distributiva a  (b  c)  (a  b)  (a  c) Inoltre si dimostra che (2. il cui caso più semplice è una linea di ritardo). abbiamo come risultato la derivata della convoluzione della a per la b (e l’analogo per la commutatività). induttanze e condensatori. Come è noto. può essere definito talora da un’equazione differenziale ordinaria lineare (caso dei sistemi lineari a parametri concentrati. tra l’altro. che se facciamo la convoluzione di una qualsiasi funzione per un’altra il cui integrale da -∞ e ∞ è nullo. il caso alternativo è detto “a parametri distribuiti”. l’integrale del risultato. per esempio la forza) e y la variabile dipendente (ovvero l’uscita. da -∞ e ∞. è la risposta che si ha nel caso sia nulla l’eccitazione (l’ingresso). cioè resistenze ohmiche. la prima dipendente da un numero di parametri pari all’ordine dell’equazione.7)    a  b   dx    a  x   dx     b  x   dx            Il che significa. un sistema descritto da un’equazione differenziale lineare ha la soluzione composta da due parti additive: la risposta libera e la risposta forzata.

In genere l’integrale converge solo per un sotto-insieme del piano s. x1 (t )  X 1 ( s) .9) F ( s)     f (t )  e st dt o (trasformata unilaterale. La trasformata inversa viene ricavata con i metodi della teoria delle funzioni di variabile complessa. Sia x(t )  X ( s) . Si ha:       Linearità: a  x1 (t )  b  x2 (t )  a  X 1 ( s)  b  X 2 ( s) Spostamento nel tempo (ritardo t0 ): x(t  t0 )  e st0 X ( s) Spostamento nel dominio s: es0t x(t )  X ( s  s0 ) Cambiamento di scala temporale: x(at )  Inversione temporale: x(t )  X (s) Differenziazione nel dominio del tempo: 1 s X  |a | a  d  x (t )  s  X ( s) d t 18 . Le proprietà più importanti della trasformata di Laplace sono appresso elencate. Essa viene anche indicata con F ( s)  L  f (t ) o. detto regione di convergenza.2. e si ha (2. x2 (t )  X 2 ( s) . più frequentemente usata) (2. parte reale di s. ovvero per un intervallo della variabile  .11) f t   1 2 j  c  j c  j  e st  F  s   ds dove c è scelto in modo tale che tutti i punti singolari della F  s  giacciano a sinistra della retta Re  s   c del piano complesso rappresentante s. se è chiaro dal contesto che stiamo trattando con trasformate di Laplace.10) F ( s)   f (t )  e st dt 0  dove s    j (con j indichiamo l’unità immaginaria).1 Trasformata di Laplace La trasformata di Laplace di una funzione è definita da (trasformata bilaterale) (2. con f (t )  F ( s) .1.

quasi equivalenti. cioè Se una funzione è periodica. oppure con costanti a moltiplicare differenti. la risposta di un sistema lineare tempo-invariante può essere calcolato con l’integrale di convoluzione dell’ingresso con la risposta impulsiva del sistema. La trasformata di Fourier di una funzione x(t) è data da8 (2. per esempio con l’esponenziale positivo. 2. che viene detta funzione di trasferimento.  0  (2. Integrazione nel dominio del tempo:  t  x( )d  dX ( s) ds 1 X ( s) s   Differenziazione nel dominio s: t  x(t )  Convoluzione:    x1 ( )x2 (t   )d  X 1 ( s)  X 2 ( s) Come abbiamo visto. in essa però la variabile “trasformata”. è reale e indica la pulsazione (in Inglese angular frequency.14) X ( )   x(t )  e jt dt   8 Esistono altre definizioni. L’uso della trasformata di Laplace riduce formalmente questa operazione a un prodotto tra la trasformata di Laplace del segnale d’ingresso e la trasformata di Laplace della risposta impulsiva del sistema. Ricordiamo che   2  . La trasformata di Fourier è simile alla trasformata di Laplace.12) x(t )  k  X  k  e jk0t dove i coefficienti X k sono ricavati da (2. cioè se x(t )  x(t  T0 ) per tutti i t (T0 è il periodo.13) 1 Xk  T0 T0 2 T  0 2  x t   e  j k  2 t T0  dt La trasformata di Fourier è una generalizzazione dello sviluppo in serie di Fourier al caso in cui la funzione x(t) non sia periodica (ovvero sia di periodo infinito). spesso viene indicata con  ). dove  è la frequenza. coniugata del tempo.2 Trasformata di Fourier 1 è la T0 frequenza e 0  2 0 la pulsazione). 19 .1. come è noto possiamo svilupparla in serie di Fourier.

molto spesso nel dominio t le funzioni sono reali mentre sono complesse (ed hermitiane) nel dominio  .Come si vede è un caso particolare della trasformata (bilatera) di Laplace. In pratica però. possiamo calcolare immediatamente quella di una combinazione di questi due segnali. come si vede. Se X L  s  è la trasformata di Laplace di x(t) e X F   la trasformata di Fourier. Possiamo. quando è il caso. Sia x(t )  X () . poiché nell’analisi dei segnali si fa largo uso di questa trasformata. x1 (t )  X1 ( ) . Notiamo che (2. x2 (t )  X 2 ( ) . allora9 X F    X L  j  . Data la parentela con la trasformata di Laplace. la trasformata di Fourier gode di proprietà simili. più altre dovute alla maggiore “simmetria” tra le variabili coniugate. scomporre opportunamente un segnale per calcolare. con x(t )  X () . la sua trasformata. per la trasformata abbiamo lo stesso valore assoluto e uno sfasamento che varia linearmente con  . Guardiamo con attenzione queste proprietà.15) La trasformata inversa si ottiene da (2.  Spostamento nel dominio  : e j0t x(t )  X (  0 ) 9 Nel caso in cui esistono entrambe.16) X (0)   x(t )dt   x(t )  1 2    X ( )  e jt d Essa viene anche indicata con X ( s)  F x(t ) o. Si ha:  Linearità: a  x1 (t )  b  x2 (t )  a  X1 ()  b  X 2 () Se conosciamo la trasformata di due segnali. quando è chiaro che parliamo di trasformate di Fourier. esponenziali complesse (ricordiamo che e jt  cos t  j  sin t ). dove s  j . Le funzioni della base trasformata sono.  Spostamento nel tempo: x(t  t0 )  e jt0 X ( ) Se trasliamo un segnale nel tempo.o intuire. 20 . Si noti che X   è indipendente da spostamenti nel tempo. Nella trasformata di Fourier c’è una simmetria perfetta tra la variabile t e la variabile  .

Questa è la duale della precedente.17) e j0t      Ora notiamo che e j0t  e j0t  2  cos 0t  e e j0t  e j0t  2 j  sin 0t  allora (2. Questa proprietà è la ragione del cosiddetto “principio di indeterminazione di Fourier”.19)  Cambiamento di scala temporale: x(at )  1   X  |a|  a  Anche questa è una proprietà molto importante. simile a quello di Heisenberg.18) x  t   cos 0t  x  t   sin 0t  X   0   X   0  2 X   0   X   0  2j (2. Una dilatazione nel dominio t corrisponde a una contrazione nel dominio  e viceversa. Se x(t)=1. che vedremo in seguito (par. 4. la trasformazione x '  t   x  a  t  produce una contrazione o una dilatazione a seconda che |a| sia maggiore o minore di 1.  Inversione temporale: x(t )  X () Se la x(t) è reale.20)  d n  x (t ) n   j   X ( ) n d t Integrazione nel dominio del tempo:  t  x( )d   X (0) ( )  1 X ( ) j  Differenziazione nel dominio  :  j  t  x(t )  dX ( ) d 21 . troviamo che (2. allora X    X *    e quindi anche x(t )  X * ()  Differenziazione nel dominio del tempo: Questa proprietà può essere generalizzata con d x(t )  j  X ( ) d t (2.3). e j0t rappresenta una oscillazione complessa: moltiplicare x(t) per questa oscillazione complessa provoca una traslazione della trasformata di Fourier.

se il segnale x(t) è reale. Un risultato importante per i sistemi che si deduce dalla proprietà della trasformata di Fourier per la convoluzione. è immaginaria. è che se l’ingresso di un sistema lineare è una sinusoide. hermitiana Reale Immaginaria Ricordiamo qui che. Si noti che se l’integrale si esegue nella variabile  non compare il 1 . e inoltre:  Moltiplicazione: x1 (t )  x2 (t )   X1 ( ) X 2 (   )d   È la duale della proprietà della convoluzione. se eseguita analiticamente. Ecco alcuni casi: Dominio del tempo Reale Reale positiva Reale pari o hermitiana Reale dispari o anti-hermitiana Dominio della frequenza Hermitiana Massimo reale in 0. se le dimensioni di x(t) sono [x]. cioè la sua parte reale è pari e la parte immaginaria dispari (funzione hermitiana). Convoluzione:    1 x ( )x2 (t   )d  X1 ( )  X 2 ( ) Sostituire una operazione come la convoluzione. reale o complessa. quelle della trasformata X sono [xt]. con ampiezza e fase che dipendono dalla frequenza. “fastidioso” coefficiente 2 Inoltre. Quindi per ogni 22 . è una funzione hermitiana. la trasformata è reale. se x(t). se è anti-hermitiana ( x(t )   x *(t ) ). con una moltiplicazione rende spesso molto utile lavorare nel dominio trasformato di Fourier. la sua trasformata di Fourier è X    X *    . se eseguita numericamente. o computazionalmente costosa. spesso complicata.  Identità di Parseval: 1  x1  t   x  t   dt  2  * 2      X    X    d  1 * 2    x  t   dt  2 1 2   X   2  d Questa proprietà è un’utilissima relazione sull’”energia” totale del segnale nel dominio del tempo e di  . l’uscita è anch’essa una sinusoide.

 Pacchetto gaussiano: Un “pacchetto è un segnale sinusoidale moltiplicato per una “finestra”. la trasformata di Fourier ci dà il contenuto in energia (o. Definiamo spettro di energia di un dato segnale. come vedremo per i segnali di durata infinita.ricordando le proprietà su riportate. In questo caso la finestra è gaussiana. Se prendiamo come “larghezza” nel tempo la 1 deviazione standard. in  la larghezza è . cioè il rapporto tra l’ampiezza della sinusoide in uscita e quella in ingresso. più sono stretti i picchi (o il picco. un solo picco nella trasformata). Sono qui riportati i tre casi del pacchetto esponenziale complesso (dati complessi. La funzione di trasferimento (definita come la trasformata di Laplace o di Fourier della risposta impulsiva.21) e   2  2 2 Notiamo che la trasformata ha la stessa forma funzionale della gaussiana (ma mentre nel tempo è normalizzata a 1. del pacchetto cosinusoidale (funzione reale pari. in  no). la vedremo meglio in seguito) dà. Notiamo poi che più è ”largo” il pacchetto nel tempo. trasformata immaginaria). e la fase la differenza di fase tra di esse. per ogni frequenza.  1    e  t2 2 2 e j0t e   0 2  2 2 (2. nel caso complesso) nella trasformata. il modulo quadro della sua trasformata di Fourier. Infine riportiamo la trasformata di Fourier di alcune significative funzioni:  Gaussiana: 1    e  t2 2 2 (2. Per quanto riguarda i segnali.frequenza possiamo definire un numero complesso che abbia come modulo il “guadagno” del sistema. quindi il prodotto delle due larghezze è sempre 1.22) 1    e  t2 2 2  cos 0t  e   0 2  2 2 e 2   0 2  2 2 1    e  t2 2 2  sin 0t  j  e   0 2  2 2 e 2   0 2  2 2 23 . in potenza) alle varie frequenze. questo numero complesso. Il calcolo della trasformata è facile. trasformata reale) e del pacchetto sinusoidale (funzione dispari.

La sinc ha una notevole importanza nello studio del campionamento di segnali continui.  Pacchetto rettangolare: La situazione è analoga al caso del pacchetto gaussiano. abbiamo che nel dominio t è a. a    2a  a  0 per | t | a (2. nel dominio  è È stata introdotta la funzione sinc(x) come (2.In figura c’è un pacchetto gaussiano cosinusoidale Figura 2-1  Rettangolo: sin  a    1 per | t | a r  t. a e la trasformata dell’impulso rettangolare può scriversi in termini di questa funzione.23) Se prendiamo come misura della larghezza delle due funzioni il valore più basso in cui si azzerano. … 24 .24) sinc  x   sin  x  x  .

27) costante: x  t   c c    0   (2.28) gradino: u  t         j  esponenziale complesso: e j0t        (2.30) esponenziale decrescente: u  t   e    t     j 25 .26) delta:   t   (2.25) e     1 x     2 2  Pacchetto esponenziale simmetrico: La situazione è analoga al caso del pacchetto gaussiano. …  (2.29)  (2. Esponenziale simmetrico  Lorentziana ( distribuzione di Cauchy): |t | 2 (2.

si ha una funzione che ha come trasformata la somma delle trasformate u t   e (2. essendo X(s) e Y(s) le trasformate di Laplace dell’ingresso e dell’uscita del sistema.Fn  s  .1.Fn  s  . La funzione di trasferimento F(s) è la trasformata di Laplace della risposta impulsiva f(t).  j    2   j 2  (2. Per la proprietà della trasformata di Laplace sulla convoluzione.34) F  s   F1  s   F2  s   Fn  s  e se abbiamo n sistemi in parallelo (cioè tutti con lo stesso ingresso e con tutte le uscite che vanno a un nodo somma). la funzione di trasferimento complessiva F(s) è data dal prodotto delle singole funzioni (2.33) Y  s  F  s  X  s Inoltre. con funzioni di trasferimento F1  s  . con funzioni di trasferimento F1  s  .. Infatti (equazione (2.31)  t   u  t   e  e        t  |t |    che non è altro che la (2.4)) la risposta si calcola facendo la convoluzione dell’ingresso con la funzione risposta impulsiva. abbiamo (2. la funzione di trasferimento complessiva F(s) è data dalla somma delle singole funzioni 26 . se abbiamo n sistemi in cascata (in serie).3 La funzione di trasferimento Abbiamo visto che un sistema lineare tempo invariante può essere definito dalla risposta impulsiva.25).F2  s  .Si noti che la stessa funzione invertita nel tempo ha trasformata   t     j . Sommando la u  t   e  e la invertita nel tempo..32) “doppio polo”: u  t   t  e    t      j    2 2.F2  s  .

39) n i 1 N i n abbiamo la soluzione generale.35) F  s   F1  s   F2  s     Fn  s  Se il sistema è a parametri concentrati.36) F s  B s A s i 0 i i 0 n i m i i La funzione di trasferimento è completamente descritta avendo dato    gli zeri del polinomio al numeratore (chiamati semplicemente “zeri” zk) gli zeri del polinomio al denominatore (chiamati “poli” pk) un fattore di guadagno che.8). può essere il “guadagno in B continua” F0  0 A0 Se tutti i poli sono differenti. sempre nell’ipotesi di n>m (altrimenti si avrebbe una “catastrofe ultravioletta”). come un’opportuna combinazione lineare degli n termini e pi t (2. e quindi è descritto da un’equazione del tipo (2.37) dove (2. e se n>m. allora la funzione di trasferimento è una funzione razionale di s. dalla (2. nel cao di A0 e B0 diversi da 0. (2. n2 volte il polo p2.40) dove f (t )   gi  t   e pi t i 1 N 27 .36) si può ricavare la risposta impulsiva (calcolata come trasformata inversa di F(s)).(2. e cioè (2. e così via.38) f (t )   Ki  e pi t i 1 n Ki   s  pi   F  s   s  p   i Nel caso generale. essendo N i poli distinti ed essendo (2. in cui si hanno n1 volte il polo p1.

che qui riportiamo y(t )     f ( )x(t   )d e che definisce un generico sistema lineare (x(t) è l’ingresso e y(t) l’uscita).43) x  t   e jt abbiamo (2. Quindi dalla (2. La (2. Possiamo facilmente calcolare la risposta in frequenza di un sistema di funzione di trasferimento F(s). 28 . Nel primo caso si producono due grafici.4). Ciò ci porta alla seguente definizione di funzione di trasferimento F  j  (ponendo  come parametro): la F  j  è l’auto-valore relativo all’auto-funzione e jt del sistema.40) si deduce immediatamente che condizione necessaria e sufficiente per avere la stabilità è che tutti i poli abbiano parte reale negativa. condizione necessaria e sufficiente è che la risposta impulsiva tenda a 0 per t tendente all’infinito. 10 Spesso viene rappresentato il guadagno in decibel in funzione del logaritmo della frequenza. come (2. uno in cui si rappresenta il guadagno (il valore assoluto di F  j  ) in funzione della frequenza (o della pulsazione) in scala doppiologaritmica10 e un altro in cui si rappresenta la fase in funzione della frequenza. Se prendiamo (2.(2. Nel secondo (diagramma di Nyquist) si grafica la parte immaginaria di F  j  in funzione della parte reale.44) y (t )     f ( )e j ( t  ) d  e jt     f ( )e  j d  e jt  F  j  L’integrale è anche la trasformata di Fourier della risposta impulsiva f(t).41) gi  t    d ni k  t k 1 1 n  s  pi  i F  s  s p  ni k   i  k  1 ! k 1  ni  k  ! d s ni Perché un sistema lineare tempo invariante sia stabile.42) può essere ricavata direttamente dalla (2.42) F  j  Spesso la risposta in frequenza viene rappresentata con i diagrammi di Bode o col diagramma di Nyquist. quest’ultima in scala logaritmica.

29 .46) f  t   B0  u  t   e La risposta in frequenza si calcola come  t  (2.47) B0 j  e il guadagno è 1  (2.1. Sistema del primo ordine passa-basso11. La risposta impulsiva è (2.2.45) B0 B  0 s  p1 s  1  dove il polo p1 è reale negativo.48) G B0 1  1   j     j        B0 2  1 2 mentre la fase è (2. Vedi Appendice. per esempio.49)    arctan    Diamo i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione  ) e di Nyquist per il caso   B0  1 11 Esso può essere realizzato.4 Semplici sistemi lineari continui 1. di funzione di trasferimento (2. tramite l’uso di un amplificatore operazionale (e pochi altri componenti).

Figura 2-2 Figura 2-3 30 .

51) t    f  t   B0    t   e   u  t     La risposta in frequenza si calcola come (2. La risposta impulsiva è (2.Figura 2-4 2.52) B0  j 1 j   e il guadagno è (2. di funzione di trasferimento (2. mentre è presente lo zero nell’origine. sistema del primo ordine passa-alto.53) G B0  j  j 1  1   j     j        B0   1 2  2  31 .50) B0  s B0  s  s  p1 s  1  dove il polo p1 è reale negativo.

54)   arctan      2 Ecco i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione  ) e di Nyquist per il caso   B0  1 Figura 2-5 32 .mentre la fase è (2.

Figura 2-6 Figura 2-7 3. sistema del secondo ordine semplice (risonanza) 33 .

58) da cui il guadagno è (2.  100 34 .56) La risposta impulsiva è (2.(2.59) | F  j  | 0  1 1  2     0   2  2  2     2 4 2 mentre la fase è (2.60)   arctan  2 0 2   2  1 2 Ecco i grafici di guadagno e di fase in funzione della frequenza (non della pulsazione  ) e di Nyquist per il caso 0  1.2  1   j  0 f  t   u  t   e  sin 0t    t La risposta in frequenza è 1 2  2 2  0    2    j   0    F  j    0   2 2  2 1 4 2  2 1  2   j     0  2      0   2  2      2    (2.57) p1.55) F s  2  2 1 s 2   s   0  2      0 Si hanno due poli complessi coniugati di valore (2.

Figura 2-8 Figura 2-9 35 .

Figura 2-10 36 .

che in genere indicheremo con  .2 Variabili casuali discrete Le variabili casuali discrete sono definite da insiemi numerabili (finiti o infiniti) di valori che possono prendere.1 Variabili casuali Una variabile casuale è una variabile (reale o complessa) al cui valore è associata una distribuzione di probabilità. tale che (2. Distinguiamo tra variabili casuali discrete e continue.2.63)   k La deviazione standard  è definita come la radice quadrata della varianza.61) p k k 1 Per una distribuzione discreta si definisce  il valore aspettato (2. detto varianza. e la deviazione standard. a cui è associata una distribuzione discreta di probabilità pk . 2. con k la variabile discreta. Spesso invece della deviazione standard si indica il suo quadrato  2 .62)   E  k    k pk k  la varianza 2 2  2  E  k        k     pk (2. che è un parametro di localizzazione della distribuzione. che in genere indicheremo con  . 37 . I parametri fondamentali di una distribuzione di probabilità sono il valor medio o valore aspettato12. 12 In passato veniva anche indicato come speranza matematica.2.2. e che è un parametro di “sparpagliamento” (o “larghezza”) della distribuzione.2 Teoria delle probabilità Queste note si intendono come un compendio di risultati relativi alla teoria delle probabilità. 2.

i momenti centrali di ordine N
N N  ( N )  E  k        k     pk

(2.64)

k

Esempi di distribuzioni discrete sono:  la distribuzione uniforme discreta (per esempio quella delle facce di un dato "onesto")

(2.65) con (2.66) e (2.67)

pk 

1 per 1  k  N N



N 1 2



N 2 1 12

la distribuzione binomiale (che è definita per un numero finito di valori)
N pk    p k (1  p) N k k 

(2.68)

definita dai parametri p ed N. Per essa (2.69) (2.70)

  E k   N  p

 2  N  p  1  p 

la distribuzione di Poisson (che è definita per un numero infinito, ma numerabile di valori)
P(k ;  ) 

(2.71)

k
k!

e 

definita dal solo parametro  . Il valore aspettato è proprio  e anche  2   .

38

2.2.3 Variabili casuali continue
Una variabile casuale continua è una variabile reale o complessa su cui è definita una funzione di densità di probabilità f(x), che ha le seguenti proprietà, per   x   , o o o

f ( x)  0



f ( x)dx  1
b a

Prob(a  x  b)   f ( x)dx

Date queste proprietà, si ha che, se f(x) è una densità di probabilità, allora lo è anche (2.72)
f '  x  A  f  A  x  B

con A> 0. Questa trasformazione descrive una dilatazione (o una contrazione se A > 1) e una traslazione. Vogliamo notare che le variabili discrete sono un caso particolare delle variabili continue: per una variabile discreta definita dalle  pk  , abbiamo una densità di probabilità (2.73)

f  x    pk   ( x  k )
k

Come per una variabile casuale discreta, anche per una variabile casuale continua può definirsi il valore aspettato o valor medio della variabile casuale. In questo caso si pone (2.74)

  E[ x]   x  f ( x)dx


Vogliamo ricordare che esistono altri parametri di localizzazione di una variabile casuale, oltre al valor medio, e cioè: o la mediana, il valore m per cui F (m) 

1 , cioè il valore della variabile casuale per cui si ha 2 esattamente la stessa probabilità che il risultato sia maggiore o inferiore ad essa. È ovvia l’analogia alla mediana introdotta del capitolo 5 come parametro di posizione per descrivere un insieme di dati.

o la moda, il valore per cui la densità di probabilità ha il massimo assoluto, cioè il valore verso cui più si addensano i risultati delle ripetizioni dell’esperimento probabilistico descritto da f(x). Data una funzione g(x) della variabile casuale x, possiamo calcolare il valore aspettato di g(x) (detto valor medio di g(x)) come (2.75)
E[ g ( x)]   g ( x)  f ( x)dx
 

39

Un caso particolare è g ( x)  ( x   )2 , il cui valore aspettato definisce la varianza della densità f(x), detta anche varianza di insieme della variabile casuale x o varianza della distribuzione13

(2.76)

 2  Var[ x]  E[( x   )2 ]   ( x   )2 f ( x)dx


Se  e  sono valor medio e deviazione standard della f(x), allora la f’(x), ottenuta dalla trasformazione (2.72), ha sono valor medio e deviazione standard (2.77) (2.78)

'    B
' 
A

La deviazione standard descrive quanto una densità di probabilità è “stretta” intorno alla media. La disuguaglianza di Chebyshev dà a questa definizione qualitativa un carattere probabilistico quantitativo. Per una variabile casuale x con media  e deviazione standard  , si ha che (2.79)

Probabilità  x -   k    

1 k2

Ovviamente questa disuguaglianza14 ha senso per k > 1. Come vedremo, per le più comuni 1 distribuzioni, Probabilità( x -   k   ) è molto minore di 2 . k Si possono definire i momenti (rispetto all’origine) di ordine k come (2.80)
m( k )   x k f ( x)dx
 

e i momenti centrali di ordine k come (2.81)

 ( k )   ( x   )k f ( x)dx


Tra i momenti rispetto a 0 e quelli centrali ci sono delle precise relazioni. Per esempio

  2  m 2  m1
(2.82)

 
1

2

 3  m3  3  m1 m 2  2 m1
4 4 3 1

      m   4  m  m    6  m   

3

2

m 2  3 m1

 

4

13 14

In statistica viene anche detta "varianza della popolazione" Il caso limite è la distribuzione costituita da due delte eguali. In tal caso, per k>1, la probabilità è 0.

40

A partire dai momenti di ordine 3 e 4 si definiscono i parametri asimmetria (skewness in inglese) e curtosi (kurtosis in inglese) come (2.83) e (2.84)

 (3) asimmetria  3 
curtosi 

 (4) 3 4

Lo “strano” 3 nella definizione della curtosi permette di avere 0 nel caso della gaussiano. Per una variabile casuale reale si definisce distribuzione cumulativa la funzione (2.85)
F ( x)  
x 

f ( )d  Prob[variabile casuale  x]

Esempi di distribuzioni di variabili casuali continue sono: a) la distribuzione uniforme in cui la densità di probabilità è
 1 b  a  f ( x)   0   per a  x  b altrove

(2.86)

Il valor medio è (2.87)

 x2 / 2  1 b b2  a 2 ba  xdx      a ba 2  b  a  a 2  (b  a)

b

e i momenti centrali sono (2.88) 
(k )

 b  a    a  b  1 b 1 k 1  k   a ( x   ) dx   (k  1)(b  a)   x      2k 1 (k  1)  (b  a) ba  a
b k 1

k 1

Si nota che per k dispari  ( k )  0 , mentre per k pari (2.89) La varianza è quindi

(k )

b  a 

k

2k  (k  1)

41

(2.90)

 2   (2) 

(b  a)2 12

b) la distribuzione di Gauss o distribuzione normale, con densità (2.91)
f ( x)  1 2   e

 x   2
2 2

 N  , 

con valor medio  e varianza  2 (spesso si indica semplicemente con N   ,   ). Spesso si usano variabili gaussiane normalizzate o “standard”, in cui   0 e   1 . La grande importanza della distribuzione normale è dovuta soprattutto al teorema del limite centrale. Con esso si dimostra che, se sommiamo N variabili casuali indipendenti, con distribuzioni anche diverse, ma con varianze dello stesso ordine di grandezza, se N tende all’infinito, la distribuzione della somma tende a una distribuzione gaussiana che ha valor medio la somma dei valor medi e varianza la somma delle varianze. c) la distribuzione di Laplace, con densità (2.92)

f  x;  , b  

1  e 2b

x b

con valor medio  e varianza 2b2. La curtosi è 3. È utile per modellizzare diversi processi reali con code pesanti. d) la distribuzione del 2 , che indica la distribuzione della somma di N variabili gaussiane normalizzate al quadrato. Ha densità (2.93)
 N  1 2 2 1 f   ;N   N / 2   e 2 2 ( N / 2)
2
2

Il valore aspettato e la varianza sono rispettivamente N e 2N; il terzo e quarto momento 12 2 centrale sono 3  8N e 4  12  N   N  4  . L’asimmetria è 2 e la curtosi è . N N Nella prima figura ci sono le distribuzioni del 2 per N = 1, 2, 3, 4. Nella seconda sono confrontate la distribuzione del 2 con N = 100 e la gaussiana con la stessa media e la stessa varianza (in rosso la gaussiana).

42

Un caso particolare della distribuzione del  2 è la distribuzione esponenziale.95) f  x  u  x  1  e  x  F  x  1 u  x  e  x  il valore aspettato è  ed è uguale alla deviazione standard. ottenuta da questa dividendo la variabile per N. Nel caso generale la distribuzione esponenziale ha densità (2.Figura 2-11 Figura 2-12 Talora si usa la distribuzione del  2 .94) e la distribuzione integrale è (2. e) la distribuzione esponenziale. 43 .

Un altro importante caso in cui compare la distribuzione di Cauchy è quello del rapporto tra due variabili gaussiane a media nulla. Un esempio di esperimento i cui risultati sono distribuiti secondo la distribuzione di Cauchy è il seguente.Tale distribuzione si ottiene se sommiamo due variabili gaussiane indipendenti di media 2 2 nulla. Se si fa la radice quadrata della somma dei quadrati di 2 due variabili gaussiane indipendenti di media nulla e uguale varianza  G . varianze  x e  y e coefficiente di correlazione r (per la definizione vedi (2. Per la simmetria. Siano x e y due variabili gaussiane con valor medio 2 2 nullo. i momenti centrali di ordine dispari sono nulli. abbiamo la distribuzione di Raleigh (2.97) f ( x. con la stessa varianza  G . f) la distribuzione di Rayleigh. nota in Fisica anche col nome di distribuzione di distribuzione di Breit-Wigner o di Lorentz. quadrate. . In tal caso si ha   2   G .96) f  x  u  x  x 2 G e  x2 2 2 G che ha valor medio  G    2  e varianza  2     G . Essendo z  x .138)). Si faccia ruotare un disco in modo che si fermi a caso con distribuzione dell'angolo uniforme tra 0 e 360 gradi. con media 0 e parametro d = 1. Il valor medio è  (calcolata con argomenti di simmetria). abbiamo y 1  r 2  x  y (2.98) f ( z)       z  r  x  y  2 y  2 2    x  1  r    2 44 . Anche i momenti pari superiori non sono calcolabili. d )  1  d 1 x 1    d  2 È caratterizzata da code molto pesanti e dal fatto che non ha varianza (l'integrale è divergente). ha la densità (2. La tangente di questo angolo è distribuita secondo Cauchy. 2 2  g) la distribuzione di Cauchy.

la disuguaglianza di Chebyshev non funziona. x2. In figura è riportata la distribuzione di Cauchy (in rosso) con valor medio nullo e d = 1 . Si noti la differente “pesantezza” delle code. Figura 2-13 h) la distribuzione t di Student (statistica per piccoli campioni).3) 1 N x   xi N i 1 La variabile e 1 N S   xi  x N  1 i 1 2   2 45 . Calcoliamo la media e la varianza campionaria (vedi paragrafo 2.e. si trova che comunque si fa crescere della dimensione del campione. se le due variabili sono scorrelate. (2. in confronto con la normale standardizzata (in blu).99) x   y f ( z)  2 z2  x 2 y Se si cerca di fare la media di un campione estratto da una distribuzione di Cauchy. Supponiamo di avere un campione casuale di dimensione N {x1.xN} estratto da una popolazione normale di media μ e deviazione standard σ (per esempio N misure indipendenti di una certa grandezza fisica.…. con errore casuale gaussiano). la media non converge al valor medio. Infatti non esistendo la varianza.

2. con N-1 gradi di libertà. per il valore di x compreso nell’intervallino x '  x  x ' dx . ha media nulla e deviazione standard M . che ha probabilità f  x   dx la distribuzione della somma è g  y  x ' .104) E[ z]  E[ x]  E[ y] Var[ z]  Var[ x]  Var[ y] 46 .102) h( z )     f ( ) g ( z  )d  Ce ne possiamo convincere considerando che.4 Somma di variabili casuali indipendenti e funzione caratteristica Se abbiamo due variabili casuali indipendenti (vedremo in seguito il significato rigoroso di questa parola) x e y. per M=1 è una distribuzione di Cauchy.103) e (2.2. definite da due densità di probabilità f(x) e g(y).101) dove M è chiamato "numero dei gradi di libertà). si dimostra che la loro somma z = x + y ha densità di probabilità h(z) data dalla convoluzione delle due densità (2. Tale distribuzione è  M 1     2  f ( x)  M M     2  x2   1     M    M 1 2 (2.100) t x S/ N (analoga alla variabile z) segue la distribuzione t di Student.(2. Un risultato importante è che in questo caso si ha (2. È in genere una distribuzione a campana con code più pesanti di una gaussiana.  M 2 Per M grande tende a una gaussiana.

47 .(la prima è vera anche se le variabili non sono indipendenti). ciò equivale a    sommare n variabili con  . Quando si ha a che fare con la somma di variabili casuali indipendenti. Quindi n  facendo la media “guadagniamo” una riduzione della deviazione standard di n . nel caso continuo. ciascuna definita da i .107)          E e j x     e j x f ( x)dx      e jk pk k Si noti che la funzione caratteristica è la trasformata di Fourier della densità di probabilità (con una convenzione diversa da quella che abbiamo usato noi nella (2.  e quindi si ottiene n n     media   . come (2. Consideriamo la funzione caratteristica associata a una variabile gaussiana: (2. Ricordando le proprietà della trasformata di Fourier.109)   2    i2   i     exp  j   i    2 i     da cui deduciamo che la somma ha distribuzione normale con valor medio pari alla somma dei valor medi e varianza pari alla somma delle varianze. Se facciamo la media di n variabili gaussiane con eguali parametri   . è (2. con la nostra convenzione è la complessa coniugata della trasformata di Fourier). è particolarmente comodo introdurre la funzione caratteristica di una distribuzione di probabilità.102) ricaviamo che la funzione caratteristica della somma di due variabili casuali è data dal prodotto delle due funzioni caratteristiche delle due variabili.108)     e j    2 2 2   2 2   exp  j    2   Se abbiamo la somma di n variabili gaussiane.   .106) e nel caso discreto (2. media   .105) che.  i  . dalla (2. abbiamo per la somma (2.14).

113) y  g ( x) Ci domandiamo quale sia la densità di probabilità della variabile y.80)). possiamo dividere la funzione in vari pezzi monotoni y=g1 (x). troviamo (2. 2.… allora 48 .  e quindi si ottiene  media   .112) d k  j k  m k  k d  0 dove m k  indica il momento non centrale di ordine k (vedi (2. x=g2-1(y). Altra proprietà interessante della funzione caratteristica è che (2. ciò equivale a  d sommare n variabili con  . (2. Nell'ipotesi che la g(x) sia continua e monotona.5 Distribuzione di una funzione di variabile casuale Supponiamo di avere una variabile casuale x di densità fx(x) e costruiamo la nuova variabile (2.110)     e j   d  Per n variabili casuali di Cauchy. di  .… ciascuno dei quali ammette una soluzione x=g1-1(y). y=g2 (x). i 1  i 1  Se facciamo la media di n variabili di Cauchy con eguali parametri   .111) n n       exp  j   i     di  i 1 i 1   n  n  Abbiamo cioè una nuova variabile di Cauchy. con parametri   i .dmedia  d  .97) è (2. definite ciascuna da  i . essendo x=g-1(y). si ha che. Quindi facendo la n n media otteniamo esattamente la stessa distribuzione.114) f y  y   f x  g 1  y    d g 1  y  dy Se la condizione di monotonicità non è verificata.2.La funzione caratteristica della distribuzione di Cauchy di equazione (2. di  . d  .

. x2 .117)     .... x )dx dx .. Analogamente al caso di una singola variabile....  g ( x .dxn  1  Integrando rispetto ad alcune variabili la funzione “mista” f ( x1 .118) E  g ( x1 . xn )         . anch'essa monotona crescente e siamo quindi nelle condizioni della (2.. x . È questo un semplice modo per generare variabili con densità φ(x) qualsiasi a partire da una uniforme (facilmente generabile con routine di pseudo-noise): basta calcolarne la distribuzione integrale e invertirla. allora F  x        d è  monotona (non decrescente). Inoltre 0≤g-1(x)≤1 . il cui integrale.115) f y  y    f x  gi1  y    i d gi1  y  dy x Supponiamo che φ(x) sia una densità di probabilità. xn )dx1dx2 .. pi1i2 . x2 .. si ottengono per y i campioni voluti. 2. x2 .. Se la fx(x) è uniforme tra 0 e 1.. Nel seguito faremo riferimento solo alle variabili casuali continue.   f ( x1 . Consideriamo la g(x)=F-1(x). x ... x2 . senza pezzi costanti.116)  . abbiamo la densità mista delle rimanenti ("densità marginali"). si può definire il valore aspettato di una qualsiasi funzione g delle n variabili come (2. xn ) .in  1 i1 1 i2 1 in 1 N1 N 2 Nn  (caso continuo) una densità di probabilità f ( x1.. ad esse è associata:  (caso discreto) una probabilità per ogni combinazione dei possibili valori delle n variabili... è 1   (2.. Analogamente alle variabili casuali semplici.. è immediato verificare che fy(y)= φ(y)..dx 1 2 n 1 2 n 1 2   n 49 .... x )  f ( x ... tra  e  .114).6 Variabili casuali multiple e covarianza Si parla di variabili casuali multiple quando si associa una distribuzione di probabilità a più variabili (discrete o continue).. xn ) ....(2..... ottenendo così la y=g(x) necessaria: se per x si pongono campioni distribuiti uniformemente.2.. su tutte le n variabili. la somma delle probabilità di tutte le combinazioni è 1 (2..

x3 ..120) e quindi (2. xk  2 . x3 ..... data la linearità dell'operatore E[. xk | xk 1 . xn )dx1dx2 ..... 15 50 . x2 . spesso qui indichiamo con f funzioni di densità che sono in genere diverse.. x2 .......... x2 .. x2 ... xn   f  x2 | x3 . o. xk . Si ha che (2.... semplicemente. x2 ....Indichiamo15 con f  x1 ...... xn   f  x1 . In effetti ciascuna andrebbe indicata in modo differente (per esempio con opportuni indici).119) Da questa si ha (2... dipendentemente dagli argomenti.. x3 ...... xn  . x2 ...   ai xi  f ( x1 .... xn  f  xk 1 . xn   f  x1 . xn  f  x2 . xk  2 .. xn  f  x1 . xk 2 .  f  xn1 | xn   f  xn  Diciamo che due variabili x e y sono stocasticamente indipendenti (o statisticamente indipendenti....124) E  y   E  ai xi     .. xk  condizionata da xk 1 . xn  la densità di  x1 .dxn   ai E  xi  i 1  i 1     i 1    n quindi il valore aspettato della combinazione lineare di n variabili casuali (anche non indipendenti) è pari alla stessa combinazione lineare dei valori aspettati (come potevamo intuire.. xn   . i 1 n n  n  (2. Se le n variabili casuali  xi  sono indipendenti. x2 ..... xn    Fi  xi  i 1 n f  x1 ..123) F  x1 . x2 .... xk | xk 1 .. xn   f  x1 | x2 ....... xk 2 .. si ha (2..... xn    fi  xi  i 1 n Prendiamo il semplice caso in cui la funzione g sia la combinazione lineare di tutte le variabili xi ..] "valore aspettato").122) e per la distribuzione integrale (2..121) f  x1 .. y   ai xi . x2 .. Attenzione alla notazione: per semplificarla.. xn  f  x1 | x2 .. indipendenti) se tutta l'informazione su x è contenuta nella marginale fx e tutta l'informazione su y nella marginale fy.

129) E  x  y        x  y  f  x. Si ha 2  y  E   ai  xi  i     E  ai a j  xi  i   x j   j     n 2    n n   (2. Le "densità marginali" sono le funzioni (2. per esempio. y )dx Queste due funzioni sono due densità di probabilità che possono vedersi come le densità di probabilità associate alle due variabili x e y. y)dxdy   x  f x ( x)dx   e analogamente (2.130) E  x  y     f x  x dx   f y  y dy  E  x   E  y  Torniamo ora alla combinazione lineare y   ai xi . Abbiamo visto che  y  E  y    ai i . y dxdy Se x e y sono indipendenti. indipendentemente l'una dall'altra. Siano i  E  xi  e  i2 le varianze delle i 1 n n variabili xi. cioè. È immediato verificare che (2. In generale (2. la prima descrive le qualità statistiche della variabile x.128) E  y    y  f y ( y )dy   Vediamo ora il valore aspettato del prodotto.131)  i 1      i 1 j 1    ai a j E  xi  i   x j   j    i 1 j 1 n n 51 .125) e (2. si ha (2. y)dy f ( x.126) fy  y     fx  x     f ( x.Consideriamo per semplicità il caso in cui n sia eguale a 2 e chiamiamo x e y le due variabili.127) E  x        x  f ( x. Sviluppiamo ora l’espressione della i 1 n varianza di y. se non si sa niente di y.

Se le xi sono indipendenti.135) detta matrice di covarianza. la varianza della combinazione lineare si riduce a (2. già anticipato. Se quindi le n variabili xi sono indipendenti. Possiamo quindi esprimere la varianza di y come (2. La deviazione standard sulla media è (2. la matrice è diagonale.Indichiamo ora col termine covarianza delle variabili xi e xj il valore (2. sulla diagonale ha le varianze delle n variabili.137) 2  y   ai2 i2 i 1 n Date due variabili x e y. Per indicare il tipo di dipendenza evidenziata da  x y in una forma indipendente dalla varianza 52 .134) y   n Tutte le covarianze delle n variabili xi formano una matrice quadrata   11  C    n1    nn    1n  (2.130) è immediato dimostrare che se xi e xj sono indipendenti la loro covarianza è nulla. abbiamo che la varianza della somma è n   2 e la varianza della media è 2 n . non è detto in genere che siano indipendenti. otteniamo il risultato. (2.132)  i j  E  xi  i   x j   j   E  xi x j   i  j     Si noti che  ii   i2 . il valore della covarianza  x y dipende anche dalle varianze di x e y. altrimenti può essere positiva o negativa.133) 2  y   ai2 i2 i 1 n Se abbiamo n variabili indipendenti con la stessa varianza  2 .136) 2  y   ai a j i j i 1 j 1 n n Se le xi sono indipendenti. Dalla (2. Se due variabili hanno covarianza nulla.

143) f ( x..142) f  x1 . può scriversi anche (2. nel discreto. si è introdotto un parametro adimensionale.138)   x y  x y Ricordiamo che la disuguaglianza di Schwartz (o di Cauchy-Schwartz) è (2. il coefficiente di correlazione (2. Se le variabili sono indipendenti.141) E  x  y  E  x2   E  y 2      Quindi  .. Nel caso generale (ma con i valori aspettati delle variabili tutti nulli..140)    2 x  t   y  t   dt     x  t  dt  2   y t   2 dt  xi  yi   xi   yi 2 i i i 2 2 L’uguaglianza si ha se y è proporzionale a x. a media nulla e con la stessa varianza... allora (2.di x e y (e da eventuali fattori di amplificazione). situazione a cui comunque si arriva con una banale trasformazione di variabile) la densità congiunta ha la forma 53 . Introduciamo ora la distribuzione gaussiana per variabili casuali multiple. Questo risultato. xn   1  2    n n 2 e  2 2 2 x1  x2 . x2 . che utilizzeremo più volte in questo corso. xn 2 2 Nel caso di due variabili abbiamo (2. calcolato nella (2.. (2. y )  1 2 x y   x   2 2   x     y     y   2    1 x y y x   exp    2 2 2 2  2 1      x   x y y 1     dove  indica il coefficiente di correlazione tra le due variabili.139) e.138). è un numero compreso tra -1 e 1.

... j 1  ovvero.   1  .148)  x2   1 1 T  exp   i 2  exp    x C x  n 2   2  f  x1 . x2 . x2 . nel caso generale.145) f  x1 ...144)  n  f  x1 . xn    2  i  n i 1 i  2  C Come abbiamo già detto. 0  C  .. sono indipendenti. Infatti. nel caso normale.. . xn   k  exp    aij  xi  x j   i ..  n    (2.(2. se   12 0 .145) che. essendo C la matrice della covarianza e C-1 la sua inversa.145) diventa (2.......146) e quindi (2.. non è vero il viceversa. e la (2. se le variabili sono scorrelate (cioè se la matrice C ha tutti gli elementi nulli a parte la diagonale)..149) y  g x  54 .147)  1  2  1   0 -1 C   .. 0    2  0  2 . 0   ... .   0   0 1 2 2 . 0  0    . 2 n   . se è vero che due variabili indipendenti sono scorrelate. . Un esempio è quello in cui esista una relazione deterministica tra x e y del tipo (2. ...    2  0 0 ... xn   2  n C Si dimostra facilmente dalla (2.  1  exp    x C 1 xT   2   (2. x2 ..

In tal caso è facile dimostrare che la correlazione è nulla. 55 .(e quindi le variabili non sono assolutamente indipendenti) e la distribuzione di x sia pari ( f  x   f   x  ).

2. Nelle scienze sperimentali definiamo campione una successione di osservazioni sperimentali (o misure)  x1. di cui si suppone esista una distribuzione teorica (che è analoga alla distribuzione della popolazione). Se i dati sperimentali sono estratti come campione da una popolazione o se essi sono affetti da errori casuali. cioè sotto l’ipotesi che il fenomeno non cambi nel tempo. È questo per esempio il caso dell’astrofisica (c’è qualche difficoltà a portare in laboratorio una stella e a controllarne qualche caratteristica.3. Realizziamo ciò tramite una funzione f. valutiamo (“stimiamo”) il valore di uno o più parametri di nostro interesse. parliamo di inferenza statistica. Queste sono rappresentative del fenomeno. xn  relative ad un dato fenomeno. Per esempio in un esperimento sulla caduta dei gravi. In questo caso usiamo l’inferenza statistica a causa delle incertezze di misura. oppure decidiamo sulla correttezza di certe ipotesi. in cui gli oggetti della sperimentazione non sono sotto il nostro controllo e quindi noi possiamo limitarci a misurarne (“osservarne”) caratteristiche “campionarie” ed inferire leggi tra di esse.  In generale. Nelle scienze sperimentali esistono due distinte procedure sperimentali:  gli esperimenti controllati (o “di laboratorio”... Il campione viene quindi analizzato con tecniche statistiche. che sono classificate in statistica descrittiva e statistica inferenziale. a parte la presenza di errori sperimentali casuali. qualcuno li chiama “galileiani”). detto campione. sia perché ci può essere l’influenza di altri fattori non sotto il nostro controllo). In effetti la statistica si è sviluppata per descrivere i caratteri di una popolazione a partire dall’osservazione di un sotto-insieme dei suoi “individui”. x2 .. per esempio la massa). gli esperimenti osservativi.. xn  . detta anche “statistica” (statistic in Inglese) 56 .3 Statistica Il calcolo delle probabilità dà gli strumenti per descrivere teoricamente un fenomeno la cui occorrenza o alcuni suoi aspetti sono basati sul caso.. supponiamo di dover stimare un parametro  da un campione sperimentale x1.2. sia perché sono presenti incertezze di misura.. scegliamo un luogo geografico e una altezza da cui far cadere un oggetto e misurarne il tempo che ci mette a raggiungere il suolo. In questo caso usiamo l’inferenza statistica sia perché operiamo su un campione di una popolazione. ottenendo la stima ˆ (d’ora in poi indicheremo con la cuspide “^” il valore “stimato” di un parametro). x2 . La statistica ci dà gli strumenti per acquisire una conoscenza sperimentale di tale fenomeno. Si fa in genere sotto l’ipotesi di stazionarietà del fenomeno in osservazione. a partire da dati sperimentali...1 L’inferenza statistica . in cui fissiamo alcuni parametri sperimentali e ne misuriamo altri.Stima dei parametri L’inferenza è il processo con cui.

Lo stimatore ai minimi quadrati di  è quella funzione     x1 . al tendere ad infinito della dimensione n del campione. Il valore stimato ˆ può essere visto come una variabile casuale. Alcune “qualità” auspicabili di uno stimatore sono le seguenti:  la consistenza. cioè... x2 . per esempio il metodo dei minimi quadrati... xn  tale che sia minima la somma (2. per una data dimensione del campione.(2. x2 .   i   dove  i sono errori di misura casuali.2 . a partire da dati con errori casuali. una qualità fondamentale. lo stimatore “ottimo”).. cioè se. x2 . ma poi “perso”). cioè quanto rapidamente ˆ converge a  al crescere di n.. Questa è..150) ˆ   f  x1. Supponiamo di avere n osservazioni x1 .. il metodo della massima verosimiglianza o la stima bayesiana.. ovviamente..152)  i2   xi  g i. 2. mentre l’“efficienza” è analoga alla precisione Per “costruire” buoni stimatori si utilizzano vari metodi. è..m  e siano ciascuna di esse (2.    ..   l’efficienza. Vedremo brevemente in cosa consistono. il valore della stima tende al valore del parametro. i 1 i 1 n n    2 detta “costo”. cioè quanto le qualità di uno stimatore sono indipendenti dalla distribuzione dei dati a cui è applicato. Notiamo che la “correttezza” è analoga all’accuratezza delle misure fisiche. se E     .151) xi  g i.. xn  di una grandezza g dipendente da un insieme di parametri   1 . Ovviamente questo principio si può generalizzare a una diversa forma della funzione costo 57 .2 Il Principio dei Minimi Quadrati (e del minimo χ2) Questo principio per costruire stimatori fu introdotto da Gauss per risolvere il problema della stima dei parametri orbitali del pianetino Cerere (scoperto nel 1801 a Palermo da Piazzi. la robustezza.. ˆ la correttezza.. la funzione f può essere qualsiasi: il problema è avere un buon “stimatore” (ancora meglio. tanto maggiore quanto minore è la deviazione standard dello stimatore. o assenza di distorsione (bias in inglese).3. xn  In linea di principio.

La soluzione del problema può farsi anche per via numerica...(2..155).. ovvero (2. x2 .m  . xn   E  y | x1 .  an  xn dato dalla (2..152) (o l’analoga con una differente funzione di costo) su un opportuno reticolato nello spazio del vettore dei parametri.. Un diverso modo di porre il problema. sono tali che y   a1  x1  a2  x2  ..xn   a1  x1  a2  x2  . x2 .. 58 .2 ..158) In tal caso si trova che i valori delle costanti ai che rendono minimo l’errore quadratico  2 E  y   a1  x1  a2  x2  . per esempio con (2. xn   dy Il problema si semplifica notevolmente se si impone che la g sia una funzione lineare (2. x2 .152).xn  di y conoscendo le x. x1 .  an  xn  sia ortogonale a  xi  (Principio di Ortogonalità)...153)     i 1 i n Con la forma quadratica di (2. tale che sia minimo l’errore quadratico (2. xn  e si conosca la densità di probabilità f  y. per tutti gli i. x2 . xn  con la funzione g al variare dei parametri 1 . x1 .......157) g  x1 .. xn     y  f x  0 | x1 . Si noti che questo problema può essere visto anche come la ricerca del “best fit” delle osservazioni x1 .154)   i  |  i |n2 si fa “pagare” di più un singolo scostamento grande che tanti piccoli.. calcolando la (2.. x2 .... x2 ... x2 .155) Si dimostra che (2..156) 2  2  E  y  g  x1 . i calcoli e i risultati sono particolarmente eleganti. è il seguente: Siano date n+1 variabili casuali  y.. xn  .. Infatti per rendere minimo  2 si deve avere...  an  xn    xi   0   per tutti gli i.. x2 .. Si voglia trovare lo stimatore g  x1 .. xn      g  x1 .... che ci sarà molto utile nel seguito. ma in alcuni casi sono più utili forme diverse..

in modo che i singoli elementi siano indipendenti.159) 2    2 E  y   a1  x1  a2  x2  .  an  xn     0 ai ai Per la linearità dell’operatore E.. il principio si generalizza al principio del minimo χ2 (che deriva dal principio della massima verosimiglianza . Quando..vedi in seguito). xn  estratto.158). x1 .(2. Ora...3 Il Principio della Massima Verosimiglianza Supponiamo di osservare un campione x1 . xn  sono normali miste. Il principio dei minimi quadrati si applica quando gli “errori di misura” hanno la stessa varianza per tutte le osservazioni. x2 .. x2 .   Rn1  a1  Rn 2  a2  .160)  2  2  E  y   a1  x1  a2  x2  .  R1n  an  R01  R  a  R  a  . si dimostra che lo stimatore ottimo è lineare del tipo (2.  Rnn  an  R0 n  (2..161) e (2. abbiamo che la derivata del valore aspettato è uguale al valore aspettato della derivata e quindi (2.. da una popolazione descritta da 59 ..162) Rij  E  xi  x j    R0i  E  y  xi  (ovviamente la matrice Rij è simmetrica) abbiamo che il sistema (2.158) si può scrivere come  R11  a1  R12  a2  . 2.. posto (2..  R  a  R  21 1 22 2 2n n 02  . dove il χ2 è la somma dei quadrati degli errori normalizzati con le proprie deviazioni standard...3.163) Questa è una conseguenza della felice scelta di una funzione di costo quadratica...  an  xn    xi   0   ai da cui si deduce la (2.157)... non è così... come è spesso. Nel caso in cui le  y.

x2 .. Poiché la L   è sempre positiva. è una di  ed essendo x1 ... La verosimiglianza è L  . xn  risultati dell’esperimento (il campione).. x2 .. x2 . xn    i f  xi |   La L  . x1 . xn  sono indipendenti). distribuzione di probabilità (corretta solo le x1 ... con parametri  .. x1.  i  . Definiamo funzione di verosimiglianza (likelihood).166) l    log  L    e massimizzare questa nuova funzione che spesso è più semplice. ovviamente no.. (2.. nel caso discreto. se ne può prendere il logaritmo (2. x2 .167)   xi    2  exp     2 i2  2   i   1  1  n   2  2  2    xi     1     exp  i 2 2    i i i    60 . x2 . Come funzione Una molto diffusa tecnica per costruire uno stimatore del parametro  consiste nel massimizzare l’espressione della verosimiglianza. ma possono essere distorti... se le x1 . x1. Supponiamo che il parametro  sia il valore aspettato delle xi e quindi le f  xi |   siano normali. La distribuzione col parametro  così determinato è quella con la massima probabilità condizionata dall’aver prodotto il campione osservato e quindi il più verosimile. xn  sono prese come variabili e  è un parametro.. xn    i (2.. x1 .. Gli stimatori costruiti con questo metodo sono sempre consistenti.  (caso discreto) una distribuzione di probabilità Pi  (caso continuo) una densità di probabilità f  x  Siano nei due casi rispettivamente la distribuzione di probabilità o la densità di probabilità note a parte un parametro  che vogliamo stimare dal campione osservato... ottenendo ovviamente lo stesso risultato.164) e nel caso continuo (2..165) L  . x2 .... xn    i P  xi |   L  . x2 . xn  .

171)    i 1 i 1 n n xi 1 2 i 2 i cioè la migliore stima di  . secondo il criterio della massima verosimiglianza. il criterio della massima verosimiglianza equivale a quello dei minimi quadrati.170) e quindi  i  xi     0  i2 (2.168)     xi i 1 1 n n Se le  i non sono tutte eguali.169) da cui (2.167) si ha per 2   xi       i   2 i2    0  (2.(la parte 2 i2 fuori dell’esponenziale è inessenziale per la massimizzazione).172) con    ai  xi i 1 n 1 (2. Lo stimatore in questo caso non è altro che i Si vede che massimizzare la verosimiglianza equivale a minimizzare   xi    2 (2.173) ai   i 1 n  i2 1 2 i 61 . quindi. se le  i sono tutte eguali. il massimo di L nella (2. si ha con una media pesata (o ponderata) (2.

x2 . Il teorema di Bayes. Supponiamo di avere un evento A che può essere causato da uno ed uno solo di N eventi B1. Si dimostra che (Teorema di Bayes) (2. x2 . Allora f  x |   è la densità di probabilità condizionata di x dato  e possiamo scrivere (2....2. x2 . x2 .. mutuamente esclusivi.…BN..177) f  x1 . o meglio quale è la probabilità che è accaduto Bi avendo osservato A.175) f ( x | y)   f1 ( y | x )  f 0 ( x ) f1  y | x   f 0 ( x )  dx   dove f0 è la distribuzione della variabile x e f1 la distribuzione condizionale di y dato x. nel caso di una variabile casuale continua.   d Ricaviamo quindi col teorema di Bayes 62 . si passa dalle probabilità P(A|Bi) alle P(Bi|A) . diventa (2. xn   dom   f  x1 . tramite anche le P(Bi). Supponiamo di conoscere le N probabilità condizionate P(A|Bi) che capiti A se è capitato Bi e le N probabilità P(Bi) . Supponiamo che il parametro  da stimare si possa considerare.. B2.. e calcolare la marginale (2.176) f  x1 .3.. xn .. Se osserviamo A.. a "inferire" sulle cause dell'evento osservato A. Vediamo ora come si costruisce uno stimatore bayesiano. x2 ..   f  x1 .. una variabile casuale definita da una certa densità di probabilità a priori f   .. xn  il campione. prima di eseguire l’esperimento statistico.174) P( Bi | A)   P( B )  P( A | B ) k 1 k k N P( Bi )  P( A | Bi ) Si noti che.. possiamo chiederci quale degli N eventi Bi lo ha causato.xn |    f   essendo x1 . cioè dall'informazione sull'effetto delle Bi su A.. xn .4 La Stima Bayesiana Ricordiamo brevemente il teorema di Bayes. con questa relazione.

che è condensato nella distribuzione a posteriori.. ci possiamo chiedere: o quale è il valore vero della misura della grandezza in esame ? o quale è l’incertezza del valore che forniamo ? o quale è l’intervallo di fiducia. Abbia il parametro  da stimare una densità a priori normale (2. cioè l’intervallo. Si noti che le informazioni a priori possono essere ricavate anche da misure precedenti. Se non si sa nulla "a priori".. xn  f  x1. x2 . 63 . Da questa e dal risultato delle misure cambia lo stato di informazione.. xn  ottenendo così lo stimatore. x2 . [pag 258 Pap III] La stima bayesiana integra informazioni a priori sulla grandezza da stimare e osservazioni (misure sperimentali). xn    Facciamo un esempio. Ora possiamo chiederci: è questo un buon stimatore ? Verifichiamone la correttezza: 16 Se il valor medio degli errori non fosse nullo. con quella probabilità ? Intuitivamente sappiamo che un buon stimatore del “valore vero” di un misurando (in linguaggio statistico..5 Stima del valor medio Supponiamo di dover eseguire la misura di una grandezza fisica.. esse sono condensate nella distribuzione a priori sulla grandezza in esame. x2 . f    N  0 ..   f  x1. Si può quindi utilizzare quest'ultima come distribuzione a priori per successive misure. Ma in questo caso questa stima è meno interessante. in presenza di errori casuali (e quindi a media nulla16). come (2..  0  2.179)   E  f  | x1. tale valore sarebbe considerato un errore sistematico. in modo da utilizzare al meglio tutte le informazioni disponibili.. che possiamo dire contenga il valore vero...180) …. xn . Partendo dai risultati di queste operazioni ripetute....(2. relativo ad una certa probabilità. xn |    f    f  x1 . x2 . x2 ..3.178) f  | x1 . si suppone una distribuzione a priori uniforme nell'intervallo.. x2 . Facciamo ciò eseguendo una certa procedura sperimentale e la ripetiamo più volte. è la media dei risultati di successive misure. a parte vagamente il possibile intervallo della grandezza.. xn   f  x1 . il “valore aspettato”).. La teoria della stima bayesiana indica il modo di calcolarla..

è  x  x n . che chiamiamo il livello di fiducia o livello di confidenza.134) .181) 1 n  1 n E  x   E   xi    E  xi       n i 1  n i 1 quindi. dall’eq. se la rappresentiamo con la deviazione standard. per il teorema del limite centrale questa formula è una buona approssimazione. a partire dalle nostre misure.99: ma in questo caso nell’ 1 % dei casi dei buoni sperimentatori daranno dei risultati errati. Una volta stimato l’intervallo di confidenza (dato un livello di fiducia di nostra scelta). che “parte” da quella di Cauchy e “arriva” asintoticamente a quella di Gauss).182)  x  z  x  z   x x Nel caso che la distribuzione non sia gaussiana. per esempio. come speravamo è corretto (e quindi anche consistente). le cose migliorano: la probabilità di riavere la fluttuazione ingannevole due volte di seguito è molto bassa (in genere inferiore a 1  (1  p)2  ). allora diciamo che le nostre misure sono compatibili con esso. ma in questo caso il calcolo dell’intervallo di fiducia è più complesso (occorre introdurre la distribuzione t di Student. Se il valore teorico è entro l’intervallo di fiducia. tuttavia. Non discutiamo qui altre qualità (alcune delle quali dipendono dalla distribuzione degli errori casuali. c’è anche l’eventualità che siamo di fronte a una fluttuazione statistica: in questo caso se ripetiamo l’esperimento dovremmo avere risultati compatibili. o anche che l’esperimento conferma la teoria. se il numero di misure è abbastanza elevato. altrimenti lo dobbiamo escludere (e dobbiamo cambiare teoria o correggere errori sperimentali. Nota: Il livello di fiducia indica quanto siamo al sicuro da inevitabili fluttuazioni. trovato con le tavole il valore z della variabile standardizzata che corrisponde ad un intervallo simmetrico di probabilità  . quale è.uazione (2.95 significa che questa è la probabilità di non essere tratti in errore dalle fluttuazioni: ma con questo livello di fiducia il 5 % degli sperimentatori che operano correttamente daranno il risultato sbagliato. è questa una distribuzione con un parametro detto numero dei gradi di libertà. Se si ripete l’esperimento però. Se la deviazione standard non è nota. la si può stimare (si veda il prossimo paragrafo). (vedi che. se il campione è abbastanza numeroso la formula che abbiamo dato è una buona approssimazione. possiamo decidere se i nostri risultati sperimentali sono compatibili con una aspettativa teorica (a priori). a 0. diciamo che l’intervallo relativo al livello di fiducia  è (2. Porre il livello di fiducia p per esempio a 0.   64 . Per l’incertezza sulla media.(2. l’intervallo (a. che non è detto che siano sempre gaussiani). Allora. Se stabiliamo una probabilità  .b) (detto intervallo di confidenza) entro cui sta il valore vero ? Supponiamo che i nostri errori siano gaussiani e che conosciamo la loro deviazione standard  x . Ovviamente miglioriamo le cose alzando il livello di fiducia p.

Esso dà mediamente un valore un po’ più piccolo di quello vero. Una misura viene quindi descritta da tre numeri: il valore stimato.183)   2 1 n  ( xi  x)2 n i 1 ma è questa una buon stimatore della varianza della popolazione da cui il campione {xi} è estratto ? Prendiamone il valore aspettato 2 1 n 1 n E   xi  x   E    xi     x    n i 1   n i 1 n n 1  n 2  E    xi     2    xi    x     n  i 1 i 1 i 1     (2. altrimenti no. allora la teoria è in accordo con l’esperimento. l’incertezza su tale valore. ricordando che la varianza sulla media è n volte minore della varianza sul singolo.185) 2    xi    x    2  x      xi     2  n  x   i 1 i 1 n     n   2 e quindi. Attenzione ! spesso anche il valore teorico ha un’incertezza. e il livello di fiducia che associa una probabilità a questo intervallo. Quindi. Quindi questo stimatore è distorto.6 Stima della varianza Nel capitolo 5 abbiamo dato questa definizione di varianza campionaria (2. 2 2  2 n 1 2 1 n 1 n 2   (2. Nell’ipotesi che la teoria sia in accordo con l’esperimento. anche se per grandi valori di n. come stimatore della varianza. con una varianza pari alla somma delle due varianze. ci aspetteremmo d = 0. 2. possiamo costruirci l’intervallo di fiducia (che sarà simmetrico rispetto a 0): se il d trovato è dentro questo intervallo. il seguente 65 . In effetti la cosa si semplifica se le due incertezze sono entrambe assimilabili a due deviazioni standard (di distribuzioni gaussiane). Preferiamo perciò.Il livello di fiducia è un parametro che qualifica probabilisticamente l’incertezza di una misura. che determina un intervallo.184)      2   x      2 ora per il termine misto si ha (2. Allora possiamo costruire la differenza d = vS – vT. dato il nostro livello di fiducia.186) E   xi  x   E    xi     x      2  n n  n i 1   n i 1      Come si vede il valore aspettato dello stimatore del capitolo 5 non è la varianza della popolazione. In tal caso dobbiamo calcolare gli intervalli di confidenza sia per il valore teorico (vT) che per il valore sperimentale (vS).3. la distorsione è molto piccola.

l’incertezza relativa sulla deviazione standard è la 1 metà della precedente.189) 2  ˆ    (4)  4 n n 1 2 ˆ 2  1 n  ( xi   )2 n i 1 1  n3   dove  (4) è il momento centrale del quarto ordine. si ha (2. 2  n  1 L’incertezza relativa sulla varianza è quindi 2.190) 2  ˆ  2 2  4 n 1 e la deviazione standard (che può essere presa come “incertezza” nella stima della varianza) (2. È questo il più semplice caso di “fit” di dati sperimentali ed è detto il problema del fit lineare.7 Esempi di stima ai minimi quadrati: stima dei parametri di una retta sperimentale (“fit lineare”) In un grafico che rappresenta punti sperimentali che collegano due parametri con dei punti allineati affetti da errori casuali (per esempio la misura del periodo al quadrato (T2) e la misura della massa appesa (M) nell’esperimento della molla). 66 .187) ˆ 2  1 n  ( xi  x)2 n  1 i 1 che è corretto (“unbiased”.3.(2.188) è corretto. il risultato (2. per riferimento. cioè . Se conosciamo il valore aspettato  . Se la distribuzione è gaussiana.191)  ˆ   2  2 2 n 1 2 e. lo stimatore (2. si vogliano stimare i parametri della retta che meglio li descrive e valutare l’incertezza su di essi. usando la solita regola per la n 1 propagazione dell’incertezza percentuale. Diamo qui. in inglese). Il calcolo della varianza sulla varianza campionaria è piuttosto complicato.

Per ottenere la stima di q facciamo (2.Nel caso più generale. Supponendo che tutte le misure abbiano la stessa incertezza. in forma di deviazione standard.192) yi  m  xi  q   i dove  i è l’errore sulla misura yi . Gauss. per ciascuna di queste coppie scriviamo l’equazione (2. Supponiamo di avere le n coppie di misure (x1.y1). il problema è quello di trovare i parametri di una funzione di un certo tipo in modo da approssimare al meglio i dati sperimentali. perché x non è una variabile casuale (sono valori scelti da noi): essa comunque misura la “larghezza” dell’insieme dei dati x.y2). ….195) ˆ ˆ q  y  m x Per le incertezze. più è larga la base dei dati x. (xn. La somma dei quadrati degli errori è (2.194) dove ˆ m x y  x y x2  x 2  ˆ  x y  x y  1 n  xi yi n i 1 x 1 n  xi n i 1 y 1 n  yi n i 1 x2  1 n 2  xi n i 1 2 Notare che il numeratore è la covarianza campionaria di x e y . anche se in effetti non lo è. come è intuitivo.193) n   2    i2    yi  m  xi  q  i 1 i 1 n n 2 imponiamo quindi le condizioni per il minimo (annullamento della derivata prima)  2 0 m e  2 0 q e risolviamo il sistema. esso stabilisce che la migliore retta y  m  x  q è quella in cui la somma dei quadrati tra i valori sperimentali e quelli della retta sia minima. detto braccio. abbiamo 67 . ha la forma di una varianza campionaria. il denominatore   x 2  x . Limitandoci al nostro semplice caso lineare. introdusse. Quindi. Si trova per la stima di m (2. per questo tipo di problemi. il principio dei minimi quadrati. dove le misure x hanno errore trascurabile e le misure y hanno errore gaussiano con media 0 e deviazione standard  . che doveva trovare i parametri orbitali di un asteroide a partire dalle osservazioni. (x2. migliore è la stima della pendenza della retta.yn).

197) m   n  q   m  x2 Attenzione ! queste formule sono ricavate nel caso in cui sono verificate le due ipotesi a) siano uguali tutte le incertezze sulle misure y b) siano trascurabili le incertezze sulle x Se non è valida la prima condizione. il problema è molto più complesso (diventa non lineare) e si può risolvere o con trucchi (riportando per esempio l’incertezza sulla x sulla variabile y) o con procedure di ottimizzazione ricorsiva. 68 . Se non è valida la seconda condizione.(2. possiamo ricavare altre espressioni per le stime e le loro incertezze.196) e (2. basate sul “principio del minimo  2 ”.

come è chiaro..8 Esempi di stima ai minimi quadrati: fit lineare generale – fit polinomiale Possiamo applicare il metodo del minimo  2 .200) si calcola annullando le derivate rispetto agli M parametri. o dei minimi quadrati che ne è un caso particolare. la matrice A nxM con elementi 69 . Il minimo della (2..2.aM x M 1 che. cioè il numero di parametri del fit dovrebbe essere minore o al massimo uguale al numero di osservazioni. minimizzando l’espressione M   yk   ai f i  xk   n  i 1   2  a1 . se vogliamo fare un fit con una funzione sinusoidale di nota frequenza.200) dove n è il numero dei punti sperimentali (o “osservazioni”) ed M il numero dei parametri liberi. aM     k k 1       2 (2. Per esempio. xk sono i valori dell’ascissa (noti senza incertezza) e  k le incertezze sulle osservazioni yk (deviazioni standard dell’errore casuale aspettato). quindi (2... a un fit fatto con una combinazione lineare di funzioni f i  x  . a2 . In genere si deve avere M ≤ n . altrimenti il problema è indefinito. in cui le funzioni base della combinazione lineare sono le fi  x   x i . Questa stima è particolarmente conveniente se gli errori di misura sono gaussiani. Avendo posto il vettore a il vettore le cui componenti sono gli M parametri ai da stimare. ma incognita fase e ampiezza. Se stimiamo quindi a1 e a2 possiamo ottenere ˆ ˆ ˆ2  A  a12  a2 ˆ cos   ˆ ˆ a1 a ˆ sin   2 ˆ ˆ A A Un altro caso notevole è quello del fit con un polinomio. possiamo porre (2.198) y  x   A  sin 0 x     a1 sin 0 x  a2 cos 0 x quindi le funzioni base in questo caso sono f1  x   sin 0 x  e f 2  x   cos 0 x  .199) y  x   a1  a2 x  a3 x 2  . In questi casi possiamo operare analogamente al caso del fit lineare. è lineare nelle incognite ai .3.. Diamo soltanto il risultato del calcolo..

Gli elementi sulla diagonale sono le varianze sui parametri.205) La matrice inversa (2.202) costruiamo la matrice MxM (2.207)  i  Cii 70 .201) Aki  f i  xk  k e il vettore y’ con n elementi (2.203) e il vettore con M elementi (2.204) yk '  k yk B  AT A b  AT  y' Si ha che la stima dei parametri è data dalla soluzione del sistema di equazioni (2.206) ˆ Ba = b C  B1 è la matrice di covarianza dei parametri ak.(2. e quindi le incertezze sono (2.

71 .3. si ricava la solita espressione per l’incertezza delle misure ripetute. di una grandezza M. L’incertezza è data da (2. Come abbiamo visto nella (2.171).209) ai  s i 1 n 1 si2 1 2 i ovviamente i pesi sono maggiori per le misure con incertezze minori. Supponiamo di avere n misure indipendenti mi. ciascuna con incertezza (assimilata a una deviazione standard) si. si ha (2. con incertezze differenti.210) M  1 s i 1 n 1 2 i Se le incertezze sono tutte eguali.9 Media pesata Se si hanno varie valutazioni della misura di una grandezza. come possiamo utilizzare questi risultati per stimare al meglio il valore vero della grandezza ? La risposta è sì.208) ˆ M s s i 1 i 1 n n mi 1 2 i 2 i Questa può essere vista come una media pesata con pesi (2. e gli errori di misura siano normali.2. Si noti che il risultato non cambia se tutte le incertezze sono moltiplicate per uno stesso fattore (le ai sono le stesse).

nel caso del farmaco potrebbe essere che non ci sia effetto (effetto nullo). Nel far ciò possiamo aver fatto la scelta giusta o compiuto un errore. Il risultato del test. Per esempio. detta ipotesi alternativa.10 Test statistici Un problema centrale che si pone negli esperimenti scientifici è decidere se i risultati di un certo esperimento sono in accordo con la teoria. oppure verificare l’efficacia di un certo trattamento (per esempio l’assunzione di un farmaco per la cura di una certa malattia). Per esempio. Per far ciò calcoliamo una funzione del campione (la “statistica” del test) particolarmente utile per poter discriminare la presenza o l’assenza dell’effetto in oggetto.3. è sempre o l’accettazione o il rifiuto dell’ipotesi. Abbiamo il seguente schema: Situazione reale Decisione statistica H0 vera P  1 Errore di primo tipo: P  H0 falsa Errore di secondo tipo: P P  1  Accettare H0 Rifiutare H0 Vediamo che si possono commettere due tipi di errori: 72 . nel caso della verifica sperimentale di una teoria. l’insieme dei valori di rigetto (detto regione critica o di rigetto). potrebbe essere che ci sia perfetto accordo tra teoria ed esperimento (errore nullo). cioè la nostra decisione. che in genere è quella più precisamente definita. La distribuzione della statistica del test viene quindi utilizzata per definire l’insieme dei valori di accettazione (detto regione di accettazione) e il suo complementare. e l’ipotesi H1. che è un altro aspetto dell’inferenza statistica. Analoghe domande si possono porre per esempio nel controllo di qualità dei prodotti (i pneumatici prodotti da un certo stabilimento hanno una durata maggiore di quelli di un altro ?) o in altri campi della tecnica. la traiettoria osservata di un corpo in caduta libera è in accordo con la legge di gravitazione ? I risultati di un esperimento con il pallinometro sono in accordo con la formula teorica della distribuzione aspettata delle frequenze dei vari bin ? In altri casi sperimentali. che implicano una decisione (sì o no) è formalizzato nella teoria statistica dei test d’ipotesi. Questo tipo di problemi. potremmo voler testare se ci sono differenze in due diverse procedure sperimentali. l’ipotesi H0. detta ipotesi nulla. Lo scopo di un test di ipotesi è valutare se c’è sufficiente evidenza statistica per accettare l’ipotesi H0. In questa teoria vengono prima di tutto formulate due ipotesi: l’ipotesi H0.2. a seconda che la statistica del test fornisca valori interni alla regione di accettazione o di rigetto.

3.m2 che ha incertezza 73 . Questa probabilità viene chiamata talvolta probabilità di falso allarme.211) E C   C1    C2   La probabilità associata alla statistica osservata viene detta “livello di significatività osservato”. 2. Definiamo a priori un livello di fiducia  (o.212) z mt m e decidiamo sul superamento del test sulla base del valore di z  z : se è positivo il test è superato (accettiamo l'ipotesi). costruiamo una nuova grandezza d = m1 . Valutiamo quindi (2. capita quando accettiamo come buona una ipotesi H0 falsa. altrimenti rigettiamo l'ipotesi. chiamata livello di significatività del test. a cui è associata la probabilità  . La scelta della soglia può essere fatta associando a ciascun tipo di errore un costo (per esempio C1 e C2).  il primo. Possiamo decidere di diminuire la probabilità di un certo tipo di errore (cambiando la soglia di decisione). Ci domandiamo se sono compatibili. e calcoliamo (con le tavole dell'integrale della gaussiana) il semi-intervallo di fiducia relativo z . ma così facendo aumentiamo la probabilità dell’errore dell’altro tipo. Per costruire il test. Nella costruzione di un test statistico talora non si considerano gli errori di secondo tipo. si può pensare. e quindi porre la soglia di decisione in modo da minimizzare il suo valore aspettato (2.3. Notiamo che 1   è equivalente al livello di fiducia  introdotto nel capitolo precedente parlando della stima dell'intervallo di fiducia. ove possibile.12 Test di consistenza tra due valori sperimentali Supponiamo di avere due misure m1 e m2 con incertezze relativamente Δm1 e Δm2 (o analogamente un valore sperimentale e uno teorico con incertezza non trascurabile). un livello di significatività   1   ).11 Test di consistenza con un valore teorico Supponiamo di avere una misura sperimentale m. con incertezza Δm (rappresentante la deviazione standard dell'errore casuale) e vogliamo decidere se è consistente con un valore teorico t (con incertezza trascurabile). il secondo. a cui è associata una probabilità  . avendo definito un certo livello di fiducia. 2. equivalentemente. capita quando rifiutiamo un’ipotesi H0 vera. Se questo valore è vicino al livello di significatività  . di ripetere il test.

2 possiamo calcolare quale sia il valore limite  MAX tale che 2  MAX (2.. un livello di significatività   1   ). In questo caso costruiamo la variabile (2. p2 .13 Test del 2 Se la verifica di un'ipotesi teorica corrisponde alla verifica della consistenza di più valori sperimentali.. equivalentemente. pn  e 74 .….3. è molto usato il test del  2 (chi quadro). ( ( x2...xn} sulle ascisse. quindi la variabile da noi costruita ha la distribuzione del  2 con n gradi di libertà. Costruiamo quindi l'intervallo di fiducia relativo al livello di fiducia e al Δd... Se per calcolare i valori teorici abbiamo dovuto valutare m parametri indipendenti di un'equazione a partire dagli n numeri sperimentali.  n  ..2 d  m12  m2 .213)   2 i 1 n y (S ) i  yi(T )  2  i2 Notiamo che gli elementi della sommatoria sono quadrati di variabili normali standardizzate. y). A partire dalla distribuzione teorica e dal numero di dati istogrammati. in corrispondenza di n punti {x1. e verifichiamo se il valore 0 è interno od esterno a questo intervallo: nel primo caso accettiamo l'ipotesi.  2 .214)  0 f (2n )  x dx 2 dove f (2n )  è la densità di probabilità del  2 con n gradi di libertà. Supponiamo inoltre che gli errori di misura siano indipendenti e che non siano state ricavate informazioni dai dati sperimentali per calcolare i valori teorici. con altrettanti valori teorici.. in cui... e si voglia testare la consistenza tra essi e gli n valori teorici y (T ) 1 ( ( . Supponiamo per esempio di avere un grafico (x. calcoliamo i valori teorici delle frequenze degli m < n bin. y2S ) .. sono tabulati su tavole come quella in appendice a questi appunti. il valore aspettato di d è 0. ynT )  ... Se quindi definiamo un livello di fiducia  (o. ynS )  . ognuno con la sua incertezza.. y2T ) . con incertezze "gaussiane" 1 .. simmetricamente a d. Un caso particolare di test del  2 è quello che si usa per testare la consistenza tra una distribuzione teorica e un istogramma di frequenza. a partire dalle probabilità  p1 . siano riportati n punti sperimentali  y1( S ) . allora si abbassa il numero di gradi di libertà a n – m e quindi dobbiamo usare la distribuzione del  2 con n – m gradi di libertà. Se le due misure sono consistenti. 2. I valori di  MAX per un dato valore del livello di fiducia e per un dato numero di gradi di libertà. altrimenti la rigettiamo..

quasi sempre non lo è per quelli estremi che sono tipicamente più poveri. quindi la varianza è proprio hi(T ) ... ad una poissoniana..215) 2   i 1 n h (S ) i  hi(T )  hi(T ) 2 (se i bin sono pochi. quindi il numero di gradi di libertà si riduce di 1. Ma ciò. se i bin sono tanti. hmT )  . mentre per poter usare il test del  2 ed avere la distribuzione del  2 sulla variabile costruita.. e.. Possiamo allora seguire una delle seguenti due strade:   trascuriamo i bin periferici (in tal caso il numero di gradi di libertà è dato semplicemente dal numero dei bin considerati) "accorpiamo" (cioè sommiamo i loro contenuti) più bin insieme (non necessariamente adiacenti). Costruiamo quindi la variabile (2.. se può essere verificato per i bin centrali. Siano invece h (S) 1 ( ( . in tal caso. Attenzione però ! Abbiamo visto che le fluttuazioni casuali (le differenze tra hi( S ) e hi(T ) sono distribuiti secondo Poisson. cosa che capita se il loro  è abbastanza elevato (per esempio > 20). istogrammando gli n dati. h2 S ) .. Ulteriori riduzioni possono aversi se ci occorrono altri parametri per calcolare le pi. in questo caso il numero di gradi di libertà si calcola nel modo normale. pi è piccolo e quindi la binomiale si può approssimare. h2T ) . queste poissoniane devono essere approssimabili da gaussiane. siano questi valori teorici h1(T ) .( ( moltiplicandole per n. hmS )  le frequenze trovate sperimentalmente per ciascun bin. Notiamo inoltre che le distribuzioni della frequenza nell'i-esimo bin è distribuita secondo una distribuzione binomiale con parametri n e pi. Si noti che il parametro n lo possiamo ricavare sommando tutte le frequenze ottenute per i vari bin. 75 .. l’approssimazione poissoniana porta a sottovalutare il valore di  2 ).

8). di uscita e di stato all’istante (campionato) i. nel seguito ci occuperemo essenzialmente di sistemi con un ingresso ed una uscita.1 Introduzione Un sistema discreto (o a dati campionati) è un elaboratore di segnali discreti (o campionati). Diciamo che un sistema è lineare se le funzioni F e G sono lineari. Definiamo la risposta impulsiva wk del sistema come la risposta alla successione (3. In tal caso  yi  A  xi  B  si   s  C  x  D  s i i 1  i (3.3) i   0per i  0  1per i  0 che è detta funzione impulsiva discreta. s ) i i 1  i (3.2) con A. Analogamente a quanto accade per i sistemi continui.3 Sistemi discreti 3. cioè sono equazioni matriciali. che riportiamo:  yi  F ( xi . B. C e D delle matrici. Analogamente a quanto accade per i sistemi continui.1) dove xi . che si possono definire in generale tramite l’equazione (1. o impulso unitario o anche delta discreta ed ha nei sistemi discreti un ruolo analogo alla delta di Dirac per i sistemi continui. per i sistemi lineari discreti (tempoinvarianti) la risposta a un ingresso generico xi è data dalla convoluzione discreta della xi per la risposta impulsiva wk : 76 . Nel seguito considereremo quasi esclusivamente sistemi tempo-invarianti (detti anche stazionari): trascureremo quindi di specificarlo. Le dimensioni dei suddetti vettori sono in genere differenti. cioè con dimensioni di x e y uguali ad 1. Se le funzioni F e G non dipendono dal tempo (cioè dall’indice i).9). il sistema è tempoinvariante. si )   s  G( x . yi e si sono rispettivamente i vettori d’ingresso. essi possono definirsi tramite l’equazione (1. Ci sono altre rappresentazioni dei sistemi discreti lineari. Cioè un sistema che accetta in ingresso una (o più) successioni di dati campionati e produce in uscita una (o più) successioni di dati campionati.

la (3.3).5) yi   xi k  wk k 0  L’operazione di convoluzione discreta (3. La (3.4) viene spesso indicata in modo abbreviato. In esso non compare lo stato. Se il sistema è causale.4). 77 . ma gli ingressi a tutti i tempi precedenti.2).4) diventa (3. Il vettore di stato può essere visto come la condizione in cui è stato pilotato il sistema dagli input precedenti. con (3. in genere più pratico di quello dell’equazione (3. similmente alla convoluzione continua.4) yi  k  x  i k  wk Ovviamente nella (3.6) y  xw Se wk  0 per tutti i k<0. il sistema è causale. allora yi  wi .(3. se la xi è data dalla (3.4) è un altro modo di rappresentare un sistema lineare.

3.2 Casi particolari
Ci sono poi casi particolari di sistemi lineari discreti, spesso molto utili:  sistemi moving average (MA), cioè “a media mobile”, detti anche FIR (Finite Impulse Response), rappresentati dall’equazione

(3.7)

yi   bk  xi k
k 0

m

cioè l’uscita yi è ottenuta dalla convoluzione delle successioni x (infinita) e b (finita). Come si vede immediatamente, questi sistemi sono caratterizzati da una risposta impulsiva composta da soli m+1 campioni. Hanno quindi una memoria finita: l’uscita è indipendente completamente da ciò che gli è stato dato in ingresso prima degli ultimi m+1 campioni.  sistemi auto-regressivi (AR), detti anche IIR (Infinite Impulse Response), rappresentati dall’equazione

(3.8)

yi  b0  xi   ak  yi k
k 1

n

in cui l’uscita a un dato istante viene espressa in funzione dell’ingresso a quell’istante e da una combinazione delle uscite negli n istanti precedenti. Si dimostra che la risposta impulsiva di questo tipo di sistemi è di lunghezza infinita. Facciamo un esempio: consideriamo il caso in cui n=1 e a1  w . La (3.8) diventa (3.9)
yi  b0  xi  w  yi 1

e, ponendo come ingresso la successione (3.3), abbiamo
yi  0per i  0 y0  b0 y1  b0  w y2  b0  w2 y3  b0  w3 ...

(3.10)

e quindi, in generale, (3.11) per qualsiasi i > 0 .  sistemi ARMA (auto-regressive moving average), rappresentati dall’equazione

yi  b0  wi

78

(3.12)

yi   bk  xi k   ak  yi k
k 0 k 1

m

n

che comprende una combinazione lineare degli m+1 ingressi precedenti e le n uscite precedenti. Generalizza i due casi precedenti.

3.2.1 Semplice applicazione di sistemi MA e AR
Supponiamo di avere una successione xi di misure di una grandezza fisica s costante, “disturbate” da un “rumore” (cioè da errori casuali), (3.13)

xi  s  ni

Supponiamo che gli errori ni siano tra loro indipendenti e di voler stimare il valor medio di s. Come è noto, un buon metodo per fare questa stima è prendere la media di un certo numero di valori delle misure xi . Supponiamo che gli errori (o il “rumore”) ni abbiano valor medio nullo e deviazione standard  ; possiamo definire  “incertezza”17 su s da una singola misura. Se facciamo la media su N misure, diminuiamo l’incertezza su s di N volte. Supponiamo ora che la grandezza s vari lentamente nel tempo. Come possiamo stimarla? Un modo potrebbe essere prendere la media di un numero N di misure successive abbastanza piccolo che, durante le N, s sia variato in modo trascurabile18. Ciò significa che possiamo fare ad ogni istante i una stima  i del valor medio di s. Abbiamo (3.14)

i 

1 N 1  xik N k 0
1 , per 0  k  N  1 . N

Ciò è realizzato tramite un sistema MA con coefficienti tutti eguali bk 

Un problema di questo modo di procedere è che appare piuttosto innaturale considerare tutti e soli gli ultimi N campioni, tutti con lo stesso peso. Si possono fare scelte dei pesi che decrescono con k, in modo che i valori più lontani, e che quindi possono avere un s più diverso rispetto al valore all’istante i, pesino di meno. Una scelta particolarmente “ragionevole” è “comoda” è usare un sistema AR del tipo di eq. (3.9), con w  e N . Ciò equivale a fare una media mobile con infiniti termini (in linea di principio, in pratica si considerano tutti i termini precedenti disponibili), con pesi decrescenti
 1

Potremo dare differenti definizioni dell’incertezza, per esempio 2 , o 3 . Vedremo in seguito come le varie espressioni qualitative presenti in questo paragrafo possano essere rese quantitative.
17 18

79

in modo esponenziale con la distanza. Si noti che questa soluzione è anche molto “leggera” computazionalmente, perché ad ogni passo richiede solo una moltiplicazione e un prodotto19. Abbiamo qui considerato solo sistemi “causali” che permettono di dare la stima  i non appena è disponibile il campione xi . In molti casi non c’è questa restrizione, e quindi per  i possono utilizzarsi anche i campioni con indice maggiore di i. In particolare il filtro MA visto precedentemente diventa, ovviamente con un diverso N, (3.15)

i 

N 1 N xi k 2 N  1 k 

Per quanto riguarda il filtro AR, possiamo applicarlo due volte, una volta (“in avanti”) normalmente e l’altra (“all’indietro”) invertendo l’ordine dei campioni; in tal modo il filtraggio avviene considerando per ciascun campione tutti i campioni, sia precedenti che seguenti.

19

Anche un filtro MA con tutti i pesi uguali può realizzarsi con un basso costo computazionale, ma con un maggiore “costo” di memoria.

80

3.3 Trasformata z
Definiamo trasformata z di un segnale discreto  xi  (3.16)

X  z 

i 

 x z
i

i

dove z  r  e j è una variabile complessa definita per tutti i valori per cui la (3.16) converge. Essa viene anche indicata con X ( z )  Z xi  o, quando è chiaro che parliamo di trasformate z, con x(t )  X ( z ) . Con la trasformata z associamo a un segnale discreto un polinomiale. Si noti che, se la serie  xi  è di lunghezza finita, la regione di convergenza copre tutto il piano della variabile z (piano di Gauss). Se è infinita destra, cioè nulla per i minore di un certo valore, la regione di convergenza è l’esterno di un cerchio di centro l’origine (il raggio del cerchio dipende dalla serie). Analogamente, se è infinita sinistra, cioè nulla per i maggiore di un certo valore, la regione di convergenza è l’interno di un cerchio di centro l’origine. Facciamo un esempio di calcolo analitico della trasformata z. Supponiamo di avere una serie (3.17) Allora, dalla (3.16), (3.18)

xi   

0per i  0  w per i  0
i

X  z    wi  z i 
i 0

1 1  w  z 1

Se la trasformata X(z) converge nel dominio anulare definito da R1 | z | R2 allora si può calcolare la trasformata inversa con (3.19)
xk  1 2 j

C

X  z   z k 1  dz

dove C è un percorso chiuso che separa | z | R1 da | z | R2 . Questo integrale può calcolarsi con l’ausilio del teorema dei residui di Cauchy: (3.20)
1 2 j

C

X  z   z k 1  dz    residui di X  z   z k 1 nei poli interni a C  

Se la X(z) è una funzione razionale, se cioè è data dal rapporto di due polinomi, possiamo ottenere il rapporto dei due polinomi come un polinomiale della variabile z 1 , l’antitrasformata si ottiene immediatamente. In molti casi la trasformata inversa può calcolarsi usando le tavole e le proprietà della trasformata z.

81

3.3.1 Analogia con la trasformata di Laplace
Un segnale discreto  xi  può essere associato ad un segnale continuo, costituito da una successione di delte di Dirac, (3.21)

x  t    xk    t  k  t 
k

essendo t il tempo di campionamento. La trasformata di Laplace del segnale x(t) è (3.22) e la trasformata di Fourier è (3.23) Sostituendo z  e st , si ha (3.24)

X L  s    xk  e sk t
k

X F     xk  e  jk t
k

X L  s  X  z

z est

e, se sul cerchio di raggio 1 c’è convergenza, (3.25)

X F    X  z 

z e jt

Si noti che X L  s  e X F   sono periodiche (la prima sulla direzione immaginaria), con periodo (3.26)

0 

2 t

Il mapping del piano s sul piano z (non univoco, il che spiega la suddetta periodicità) è tale che l’asse immaginario diventa il cerchio unitario, il semi-piano sinistro diventa l’interno di tale cerchio e il semi-piano destro l’esterno.

3.3.2 Proprietà della trasformata z
Sia X  z  , X 1  z  e X  2  z  le trasformate di  xi  , xi1 e xi 2  rispettivamente.  Linearità:

   

82

27) a  x   b  x    a  X    z   b  X    z  i 1 i 2 1 2  Shift (scorrimento. nel caso di segnali discreti di lunghezza finita.  ym  a m    x0  y0    x0  y1  x1  y0   a   x0  y2  x1  y1  x2  y0   a 2  . ovvero ritardo o avanzamento): (3.31) x  y  X Y La dimostrazione di questa proprietà..  (3.  Convoluzione : La trasformata z del segnale ottenuto come convoluzione di due segnali discreti (vedi equazione (3.. ciò corrisponde ad uno scaling nel dominio z..32) 0  x1  a  x2  a 2  . sviluppare il prodotto x (3. ovvero uno scorrimento a sinistra. Essendo x e y due successioni con trasformata z rispettivamente X e Y.(3. ovvero uno scorrimento a destra.   x0  y0   a mn  Coniugazione : 83 . si ha (3.  xn  a n    y0  y1  a  y2  a 2  . è abbastanza semplice: è legata all’analogia tra l’operazione di convoluzione discreta e il prodotto di due polinomi.30)  i 1  xi   X    z  Se  è reale.4)) è data dal prodotto delle due trasformate z dei due segnali. se è   e j .... Per rendersene conto.28) xi k   z k  X  z  Notiamo che la variabile z agisce come un operatore di avanzamento.29) Inversione temporale : xi   X  z 1  Moltiplicazione per una sequenza esponenziale :  (3. z 1 come un operatore di ritardo. ciò corrisponde ad una rotazione nel piano z.

35) i   0per i  0 1 1per i  0  funzione gradino  0per i  0 1 z ui    z i   1 1 z z 1 i 0 1per i  0 (3. (3.(3.39)  seno sin 0   z 1 sin 0   z ui  sin 0  i   2 1 2 1  2cos 0   z  z z  2cos 0   z  1 (3.33) Da cui si deduce che.3)).40) 84 .3 Alcune trasformate z Vediamo ora le trasformate z di alcune semplici successioni:  delta discreta (vedi (3.3.34) x   X  z  * i * * X  z   X *  z*  3.37)  esponenziale “rampato” 1 z ui wi   1 1 w z zw (3.38) ui  i  wi  1  w  z   z  w 1 2 w  z 1  wz 2  coseno 1  cos 0   z 1 z 2  cos 0   z ui  cos 0  i   2 1  2cos 0   z 1  z 2 z  2cos 0   z  1 (3. (3. se x è reale.36)  esponenziale (3.

dividendola per 2 .16). gode delle seguenti:   periodicità: la X    è periodica di periodo 2 . imponendo |z|=1. abbiamo (3.43) 1 xi  2 2  X   e 0 ji  d Ovviamente la (3. Notiamo che la (3. cioè z  e j .45) xi  xi 1  1  e j  X     accumulazione (analogo nel discreto dell’integrazione) 85 . a cui corrisponde. oltre alle analoghe proprietà della trasformata di Fourier normale. dove (3. discrete time Fourier transform) .41)     t è la pulsazione normalizzata (essendo t è il tempo di campionamento).1 La trasformata di Fourier per dati discreti (DTFT) Come per i segnali continui abbiamo fatto derivare la trasformata di Fourier dalla trasformata di Laplace. una frequenza normalizzata a-dimensionale che ha valore massimo 1.44) x  t    xi    t  i  t  Questa trasformata.4.42) X   i   x e i   j i La trasformata inversa si ottiene come (3.42) è equivalente alla trasformata di Fourier per segnali continui per il segnale continuo (3. così per i segnali discreti possiamo derivare dalla trasformata z la trasformata di Fourier per dati discreti (DTFT. come è ovvio prima differenza (3.42) ha senso solo se la sommatoria converge e condizione sufficiente perché ciò avvenga è che  | xi |  .4 Trasformata di Fourier discreta ed FFT 3.3. Dalla (3.

richiede un grandissima potenza di calcolo.2 La DFT (e la FFT) Introduciamo ora la trasformata discreta di Fourier.50)  k  2  Xk  X    N  Il calcolo della DFT.(3. abbiamo una trasformata tra due domini discreti e finiti: infatti sia il tempo che la frequenza (più precisamente la pulsazione) sono discreti e finiti. Infatti. È stato però introdotto (da Cooley e Tukey nel 1965) un algoritmo di calcolo. per grandi valori di N (che può essere per esempio dell’ordine di 106). trascurando il calcolo delle potenze di WN. dobbiamo eseguire circa N2 moltiplicazioni ed altrettante addizioni (per N=106 abbiamo 1012 operazioni di ciascun tipo). poiché è ciò che viene in effetti normalmente calcolato col computer. un argomento di grande interesse pratico.48) k X k   xi  WN i i 0 N 1 WN  e j 2 N è la radice N-esima dell’unità. che possono essere calcolati a priori. Per far ciò poniamo che la { xi } non sia di lunghezza infinita. per N=106 abbiamo circa 108. ma lunga N (ovvero che sia nulla per i < 0 e per i > N-1).12)). cioè 10000 volte più veloce. 86 . 3.47) dove (3. Possiamo calcolare la DFT inversa come (3.46) k  x i k    X  0      1 X  1  e j La DTFT è analoga alla serie di Fourier (vedi (2. ovviamente parente stretto della trasformata di Fourier per i dati discreti. Definiamo trasformata discreta di Fourier (DFT) la seguente successione: (3. Infatti (3. Quindi si capisce l’utilità di questa trasformata. come la serie di Fourier è continua e periodica nel tempo e discreta nelle frequenze. solo che a domini invertiti: è discreta nel tempo e continua e periodica nelle frequenze.4. che riduce il numero di operazioni a un valore proporzionale a N  log N (in una delle migliori implementazioni è 5  N  log 2 N .49) xi  1 N 1  X k WNk i N 0 Come si vede. la Fast Fourier Transform o FFT.

Sottolineiamo che questa equazione descrive un sistema causale20. Si noti la somiglianza con la (2.51) è detta equazione lineare alle differenze. ma può facilmente adattarsi a sistemi non causali. come la (3.12) può essere riscritta come (3. con la limitazione che a) l’uscita dipenda da ingressi posteriori. b) ci sia un limite al massimo “futuro”.5 Equazioni alle differenze L’equazione (3. 87 . prendono il posto delle equazioni differenziali.51) possono essere visti come due convoluzioni. ma non da uscite posteriori. 20 Questa trattazione è valida per sistemi causali. Il caso di sistemi anti-causali è ovviamente banale. Si noti che i due termini della (3. della sequenza finita {ai } e della sequenza infinita { yi } e della sequenza finita {bi } e della sequenza infinita {xi } .8): in quella l’operatore differenziale sostituisce l’operatore ritardo presente di questa. E infatti nei sistemi discreti l’operatore “avanzamento” ha una funzione analoga all’operatore differenziale dei sistemi continui: le equazioni alle differenze finite.53) A z Y  z   B  z  X  z  Un’equazione come la (3. Definendo le trasformate z X z  Y  z  i    x z i i n  i (3.3.51).52) i   y z i 0 m i A  z    ai  z  i B  z    bi  z  i i 0 possiamo utilizzare la proprietà della trasformata z della convoluzione ed otteniamo l’equazione (3.51) a k 0 n k  yi k   bk  xi k k 0 m dove a0  1 .

53) come (3. Possiamo sviluppare la (3.58) F  F1  F2 88 . dato il problema del calcolo della trasformata dell’ingresso e soprattutto dell’anti-trasformata dell’uscita). esplicitando. Una delle proprietà più importanti della funzione di trasferimento z (simile a quella delle funzioni di trasferimento con la trasformata di Laplace) è che la funzione di trasferimento di un sistema composto da due sistemi in cascata F1 e F2.55) o anche.6 Funzione di trasferimento discreta Riscriviamo l’equazione (3. F ( z)  B z A z  (3. ztrasformato e moltiplicato per la funzione (3.56) F  z  b  z i 0 i n i 1 m i 1   ai  z  i La funzione F(z) è detta funzione di trasferimento discreta e opera analogamente alla funzione di trasferimento definita per i sistemi continui. ottenendo (3.56) in serie di potenze di z.54) Y  z  B z  X  z A z  e quindi l’uscita y del sistema (o meglio la sua trasformata z) può ottenersi dall’ingresso x.51) (ma in pratica potrebbe risultare piuttosto complesso.54) risolve in modo formalmente semplice il problema del calcolo della risposta forzata dell’equazione (3. la serie è finita). ha come funzione di trasferimento il prodotto delle due: (3. La funzione di trasferimento è il modo più usato di rappresentare un sistema lineare discreto tempo-invariante.57) F  z    fi  z i i 0  (se n=0.3. È chiaro che la (3. dove le  fi  sono la risposta impulsiva.

I valori di  tra  e 2 possono vedersi come frequenze angolari negative (ricordiamo che l’”asse  ” è in effetti una circonferenza) e per sistemi a coefficienti reali la simmetria (3. perché sia “utilizzabile”. quindi lo sfasamento è nullo.61) è una simmetria tra frequenze positive e negative. la funzione di trasferimento è completamente descritta avendo dato  gli zeri del polinomio al numeratore (chiamati semplicemente “zeri” zk) 89 . (3.62) F   t   F  e jt  F    è una funzione complessa della pulsazione normalizzata  : per ciascun valore di  abbiamo un numero complesso il cui modulo indica il guadagno del sistema e la fase lo sfasamento. nel caso dei coefficienti reali. (3.Possiamo anche definire il sistema inverso di uno dato. Possiamo quindi rappresentare la F   t  con i classici diagrammi di Bode. la F(z) è anche la trasformata z della risposta impulsiva del sistema.60) F     F  e j   b k 0 n k 1 m k  e  jk 1   ak  e  jk La pulsazione  è definita per 0    2 e. semplicemente come (3. dobbiamo verificare che FI  z  sia stabile. Usando la pulsazione (o frequenza angolare) “fisica”  . possiamo facilmente calcolare la risposta in frequenza del sistema (la risposta a una sinusoide campionata) come (3. tale simmetria non sussiste. per   0 e    F è reale. Per i sistemi a coefficienti non reali. Ricordando che sul cerchio unitario z  e j . se i coefficienti a e b sono reali. tale che se messo in cascata con esso il sistema risultante ha funzione di trasferimento 1.59) FI  z   F  z 1 tuttavia.61) F  e j   F *  e j  e quindi il valore massimo “effettivo” di  è  . Si noti che. Poiché la trasformata z della delta discreta è 1. Analogamente a come si è fatto per il continuo.

quindi la sua funzione di trasferimento è il quadrato della (3.68) y t     x    d t Ma quanto l'operazione di differenza è vicina a quella di derivazione ? Questa questione potrà essere discussa quantitativamente alla luce di concetti che svilupperemo in seguito (lo spettro di potenza o di energia di un segnale).6. chiamiamo differenza prima di  xi  la successione (3. ma è chiaro che la differenza sarà una tanto migliore "stima" della derivata.66) F  z  1 1  z 1 che equivale al sistema AR del primo ordine (3. Si noti l'analogia della differenza prima (nel discreto) con la derivata prima (nel continuo). facendo la differenza prima di  yi  . con un sistema con funzione di trasferimento inversa (3.63) rappresenta un sistema MA del primo ordine con funzione di trasferimento (3.64) (3.67) yi  xi  yi 1 che esegue un'operazione analoga a quella dell'integrale nel continuo (3. il "sistema" che fa la differenza seconda equivale a due sistemi che fanno la differenza prima posti in serie.64) si possono costruire le differenze di ordine superiore. Si può invertire l'operazione di differenza prima.65) F  z   1  z 1   1  2 z 1  z 2 2 Con le potenze successive della (3. quanto più lenta è la variazione del segnale (a parte un coefficiente 90 .63) yi  xi  xi 1 La (3.64) F  z   1  z 1 Possiamo costruire la differenza seconda di  xi  .1 Differenze e derivate Data una successione  xi  .  gli zeri del polinomio al denominatore (chiamati “poli” pk) il valore di b0 3.

lavorando direttamente nel discreto.dovuto al tempo di campionamento. che noi normalmente. supponiamo pari all'unità di tempo). 91 .

56). può essere visto come il parallelo di n sistemi. cioè dalla soluzione ottenuta con le condizioni iniziali (gli n valori precedenti il primo valore di ingresso non nullo) tutte poste a 0. ponendo x0  1 e tutti i valori successivi a 0. osserviamo che il sistema associato alla (3. descritto dalla funzione di trasferimento (3.51).3.7 Risposta di un sistema discreto La soluzione generale di un’equazione lineare alle differenze è data dalla somma dell’evoluzione libera. in cui il coefficiente della potenza i-esima è l’i-esimo valore della risposta impulsiva. Quindi il k-esimo polo w k  darà una componente additiva al risultato proporzionale a (3. è un segnale a delta unitario. Un altro modo per ricavarla è eseguire la divisione tra i polinomi (nella variabile z 1 ) a numeratore e a denominatore. A partire dalla risposta impulsiva si può ricavare la risposta forzata e a quest’ultima può ricondursi l’evoluzione libera. cioè l’ingresso. Il caso più semplice di risposta forzata è la risposta impulsiva. ottenendo (in genere) una equivalenza tra la funzione di trasferimento e un polinomiale infinito.7. 3.51) può essere ottenuta semplicemente in modo ricorsivo.7. cioè la soluzione ottenuta con ingresso nullo. 3. che è la risposta forzata in cui la “forzante”.2 Risposta forzata 92 . e dalla risposta forzata.70) i   K k i k  k 1 n dove le costanti K i possono essere calcolate dal sistema formato dalle prime n (3. Per ottenere una soluzione in forma analitica.1 Risposta impulsiva La risposta impulsiva di un sistema descritto dalla (3. nel caso in cui tutti gli n poli siano differenti.69) i k   wik  avremo quindi per la risposta impulsiva complessiva (3.71) K k 1 n k i k    i dove i  i sono i i calcolati in modo ricorsivo (e ovviamente  i  i ). ciascuno dei quali ha un solo polo.

Per far ciò notiamo che l’evoluzione libera.  an y n 2 . in cui l’ingresso è dato da x0  a1 y1  a2 y2  .. y n possiamo calcolare ricorsivamente l’evoluzione libera come y0  a1 y1  a2 y2  .4)) (3.Se conosciamo la risposta impulsiva i ...  an y n  2 .76) y1  a1 y0  a2 y1  ....  an y n (3.75)....77) 93 . nel caso delle condizioni (3. y2 .3 Evoluzione libera L’evoluzione libera si ha quando l’ingresso è nullo. ma non sono nulli tutti o alcuni dei valori di yi k per 1  k  n . possiamo ottenere la risposta forzata.. possiamo considerare l’omogenea associata alla (3. ricordando a0  1 .7.  an y  n 1 x2  a3 y1  a2 y0  .72) yi   xi k k k 0  3...  an y  n x1  a2 y1  a3 y2  ... Per l’evoluzione libera.73) o..51) (3. ad un ingresso xi  .75) a k 0 n k  yi k  0 yi    ak  yi k k 1 n y1. xn 2  an 1 y1  an y2 xn 1  an y1 (3.... (3.74) A partire dalle condizioni iniziali (3.  an y n 1 y2  a1 y1  a2 y0  . Possiamo tuttavia ricavare per essa un’espressione analitica.... è equivalente alla risposta forzata della parte AR.. come (vedi equazione (3.

Notiamo che l’evoluzione libera è indipendente dal numeratore della funzione di trasferimento (parte MA dell’equazione alle differenze). 94 .quindi basta calcolare questa risposta forzata.

Ciò può accadere. Notiamo che i sistemi MA (o FIR).3. In pratica può accadere che un sistema analiticamente stabile non lo sia nella sua implementazione su calcolatore. per sistemi complessi con poli molto vicini all’unità. Questa è la stabilità analitica. a causa degli errori di arrotondamento.8 Stabilità Condizione necessaria e sufficiente per la stabilità è che il modulo dei poli della funzione di trasferimento sia minore di 1: i poli siano cioè interni al cerchio unitario. sono intrinsecamente stabili. non avendo poli. 95 .

(3. n=0 e m=1. finita.2 Sistema MA del primo ordine Consideriamo il sistema in cui nell’equazione (3.78) .9.79) yi  b0  xi Questo sistema non fa altro che amplificare di un fattore b0 il segnale in ingresso. abbiamo (3.1 Sistema di ordine 0 Il sistema più semplice è quello in cui nell’equazione (3. abbiamo un’amplificazione complessa che può essere vista come un’amplificazione reale |b0| più uno sfasamento (eguale per tutte le frequenze) di  . Attenzione ! Se b0 è complesso e b0 | b0 | e j .51).82) F  z   b0  b1  z 1 yi  b0  xi  b1  xi 1 F     F  e j   b0  b1  e j La risposta impulsiva.78)  ak  yik   bk  xik k 0 k 0 n m n (detto ordine AR) e m (detto ordine MA) hanno valori piccoli. 3. n=m=0 e abbiamo (3. 3.9 Sistemi semplici Analizziamo ora in dettaglio alcuni semplici sistemi MA e AR..83) x0  b0 x1  b1 96 .80) La funzione di trasferimento z è (3. Spesso sistemi più complessi possono essere ricondotti a più di questi sistemi in cascata.78) .81) e la risposta in frequenza è (3.9. che per comodità riscriviamo. è composta da due termini: (3. Questa amplificazione è la stessa per tutte le frequenze (la funzione di trasferimento è semplicemente b0).3. cioè sistemi in cui nell’equazione (3.

ma in cui varia lo sfasamento è detto sistema passa-tutto (all-pass system). Mostriamo i diagrammi di Bode21 per questo sistema: 21 Normalmente nei diagrammi di Bode il guadagno è espresso in decibel. Un sistema come questo. È questa una caratteristica di qualsiasi ritardo. Ricordiamo che la misura in dB è 20  log10 G . ovvero un sistema che esegue la differenza prima. in scala logaritmica. per semplicità. Dato un sistema F(z) possiamo sempre costruire un sistema passa-tutto con la stessa caratteristica di fase di F(z). l’analogo discreto della derivata del continuo. Analizziamo la risposta in frequenza: (3. Questo tipo di sistemi possono essere molto utili. 97 . lo lasciamo nelle sue unità naturali. come (3. ovvero un sistema che esegue semplicemente un ritardo di un campione. Qui.84) F     e j Vediamo che abbiamo un’amplificazione unitaria per tutte le frequenze e uno sfasamento proporzionale a  (si dice anche sfasamento lineare). in cui il guadagno non varia con la frequenza.  b0  b1  1 .Consideriamo dei casi particolari.  b0  0.85) G  z  F  z | F  z | Tale sistema tuttavia in genere non sarà causale.b1  1 .

Figura 3-1 Si noti che la pendenza è di una decade di guadagno per una decade di frequenza. Figura 3-2 98 .

ottenendo il diagramma di Nyquist (la freccia indica frequenza crescente).  1 . Mostriamo i 2 grafici del guadagno e della fase per questo sistema: b0  b1  99 .Si noti che a basse frequenze c’è uno sfasamento di 90 gradi positivo (in anticipo). è un sistema passa alto. ovvero un sistema che fa la media degli ultimi due campioni. mentre per alte frequenze lo sfasamento è nullo. Possiamo anche graficare la funzione di trasferimento nel piano di Gauss (che ha per assi la parte reale e la parte immaginaria della variabile complessa). come un derivatore. Si noti che.

Figura 3-3 Figura 3-4 e il diagramma di Nyquist 100 .

86) yi  1 N 1   xi k N k 0 Consideriamo per esempio un sistema MA di ordine 9.Figura 3-5 Si vede che si tratta di un sistema passa-basso. Ecco i relativi diagrammi: 101 . costruendo il sistema (3. con tutti i 10 coefficienti eguali a 0. Ci si può domandare cosa accade se la media la facciamo su un numero più elevato di campioni in ingresso.1.

Figura 3-6 Figura 3-7 e Nyquist: 102 .

Figura 3-8 Si noti che è un più “pesante” passa basso.9. con B(1)  z   b0  b1(1)  z 1 e B(2)  z   b0  b1(2)  z 1 .87) (1) (2) (1) (2) B  z   B(1)  z  B(2)  z   b0 b0  b0 b1(2)  b1(1)b0  z 1  b1(1)b1(2) z 2 cioè un sistema MA del secondo ordine con coefficienti (1) (2) b0  b0 b0 (3. ma presenta delle “risonanze” che potrebbero essere fastidiose. Se abbiamo due sistemi MA del primo ordine in (1) (2) cascata. abbiamo (3.88) (1) (2) b1  b0 b1(2)  b1(1)b0 b2  b1(1)b1(2) 103 . la funzione di trasferimento è data dal prodotto delle due funzioni di trasferimento.3 Due sistemi MA del primo ordine in cascata: MA del secondo ordine Se poniamo due sistemi in cascata (o “in serie”). 3.

Abbiamo: Figura 3-9 Si noti la pendenza di due decadi per ogni decade di frequenza.Se per esempio mettiamo in cascata due sistemi con b0  b1  1 .b1  2 . 104 . doppia che per la differenza prima. abbiamo un sistema con b0  b2  1. cioè che eseguono la differenza prima. questo è un sistema che  esegue la differenza seconda (analoga alla derivata seconda del continuo).

Figura 3-10 e Nyquist Figura 3-11 105 .

89) yi  b0  xi  a1  yi 1 In questo caso la risposta impulsiva è facilmente calcolabile come x0  b0 x1  b0  a1 x2  b0  a12 (3..9. xi  b0    a1  . L’andamento esponenziale ha decadimento  dato da (3. se a1  0 . la risposta impulsiva è esponenziale decrescente. Si ha (3. m=0 . abbiamo (3. si può approssimare con (3. Se | a1 | 1 il sistema è stabile e. i Si vede immediatamente che se | a1 | 1 allora il sistema non è stabile (la risposta impulsiva ha un andamento esponenziale crescente).92)  1 1 | a1 | Se a1  1 .93) Grafichiamo alcuni casi:  b0  1.3..4 Sistema AR del primo ordine (reale) Consideriamo il sistema in cui nell’equazione (3. Vediamo ora la risposta in frequenza. ma con segni alternativamente positivi e negativi.. n=1.9 F     F  e j   b0 1  a1  e j 106 . altrimenti è in modulo esponenziale decrescente.a1  0. la risposta impulsiva è un gradino di ampiezza b0.91)   1 ln | a1 | che.78) ..90) x3  b0  a13 . per valori di |a1| molto vicini a 1.

Figura 3-12 Figura 3-13 107 .

a1  0.999 Figura 3-15 108 .E il diagramma di Nyquist Figura 3-14  b0  1.

Figura 3-16 Figura 3-17  b0  1. In questo caso si ha 109 .9 .a1  0.

Figura 3-18 110 .

Figura 3-19 e Nyquist Figura 3-20  Vediamo ora cosa accade se consideriamo l’inverso del sistema precedente. il suo inverso è un sistema MA che ha b0  1.b1  0.a1  0. Il sistema era b0  1. Ecco i grafici: 111 .9 . in cui semplicemente nella funzione di trasferimento z si è invertito il numeratore col denominatore.9 .

Figura 3-21 Figura 3-22 112 .

e Nyquist Figura 3-23 3.95) Notiamo che:    il sistema è stabile se r  1 in tale ipotesi il valore assoluto decresce esponenzialmente la fase di wk (e quindi di xk) cresce proporzionalmente a k. Sia (3. come vedremo.5 Sistema AR del primo ordine (complesso) Se nell’equazione (3. la risposta impulsiva mostra tutte le potenze di w.9. La frequenza di rotazione è data da 113 xk  b0  wk  b0   r k  e jk   .94) w  a1  r  e j a parte il coefficiente di guadagno b0. il k-esimo termine è dato da (3. siamo in presenza di un’oscillazione smorzata. da 0 a infinito. quindi il vettore che rappresenta nel piano di Gauss il numero complesso xk ruota intorno all’origine con velocità proporzionale a  . ma ora.90). riducendosi proporzionalmente di ampiezza. formalmente le cose non cambiano: la risposta impulsiva può essere espressa sempre come in equazione (3.89) il coefficiente a1 e complesso.

(3.91)) (3.r  0.  36 .97)   1 1  ln | w | ln r Consideriamo il caso di b0  1. Ecco l’evoluzione nel piano di Gauss Figura 3-24 La risposta in frequenza è data da 114 .96) 0   2 e il tempo di decadimento  è dato da (vedi equazione (3.95.

Figura 3-25 Figura 3-26 115 .

1 . n=2.98) yi  b0  xi  a1  yi 1  a2  yi 2 Il denominatore della funzione di trasferimento è (3. 36   0.6 Sistema AR del secondo ordine Consideriamo il sistema in cui nell’equazione (3. abbiamo (3.9. m=0 . Si noti la presenza di una risonanza a frequenza 0.78) .99) A  z   1  a1  z 1  a2  z 2  1  p1  z 1   1  p2  z 1  116 .1   360  Il diagramma di Nyquist è Figura 3-27 3.

   6 . Abbiamo 117 .101)  1  2  r  cos   z 1  r 2  z 2 Se r  1 il sistema è stabile e.102) i  b0 i   p1i  p2   b0  r i  cos  i    2 L’andamento esponenziale ha decadimento  dato da (3. li possiamo porre come (3.dove p1 e p2 sono i due poli (soluzioni della A  z   0 ).99. r  0.103)   1 ln r Grafichiamo il caso in cui b0  1 .2  r  e j A  z   1  a1  z 1  a2  z 2  1   p1  p2   z 1   p1  p2   z 2  (3. se a1  0 .100) e quindi p1. la risposta impulsiva è una sinusoide smorzata esponenzialmente (3. Se i due poli sono complessi coniugati.

Figura 3-28 Figura 3-29- 118 .

con funzione di trasferimento F  z  1  z 1 1  w  z 1 (3.9. Per w=0.7 Semplici sistemi ARMA Come esempi di sistemi di questo tipo prendiamo i seguenti:  sistema passa-alto (ARMA[1.104) derivato dal passa-basso.e il diagramma di Nyquist Figura 3-30 3.1]).9 si ha 119 .

Figura 3-31 Figura 3-32 120 .

   60 si ha 121 .105) derivato dall’AR del secondo ordine.1]).99.Diagramma di Nyquist Figura 3-33  risonanza passa-banda (ARMA[2. Per r  0. con funzione di trasferimento F  z  1  z 1 1  2r cos   z 1  r 2  z 2 (3.

Figura 3-34 Figura 3-35 122 .

Figura 3-36 123 .

3. Si trova che nel dominio trasformato si ha (3.107) 1 Y    H    X      Q 1 .   1   X 1   X   1   d1 2   124 . Ci limiteremo a quelli che sono considerati il primo passo della non-linearita’: i sistemi di Volterra del secondo ordine (i sistemi di Volterra del primo ordine sono semplicemente i sistemi lineari discreti). ce ne è un altro quadratico. Essi sono descritti dall’equazione (3. oltre al membro lineare presente già nella (3.106) yi   hk  xi k   qkl  xi k  xi l k 0 k 0 l 0    come si vede.5). una categoria cosi’ vasta che non esistono metodi di analisi generali (a parte cose piuttosto generiche).10 Sistemi non-lineari – i sistemi di Volterra Facciamo un breve cenno ai sistemi non-lineari.

la grandezza Ew  (4.1 Energia.4 Segnali transitori 4. segnale wi Caso continuo.3) posizione  tw     t w t  Ew 2 2  dt 2 (4. segnale w  t  (4. segnale wi w posizione  tw   i  i Ew i   2 (4.2) Caso discreto. segnale w  t  Ew     w t  2  dt Ew  i  w  2 i e supporremo inoltre che sia E finito. Chiamiamo energia del segnale.5) 125 . posizione e lunghezza di un segnale transitorio Un segnale transitorio (detto anche transiente o impulsivo) è un segnale che va a zero per il tempo tendente all’infinito in entrambi i sensi. È spesso comodo definire la “posizione” e la “lunghezza” (o “durata”) di un segnale parametri analoghi al valor medio e alla deviazione standard delle distribuzioni di probabilità :  Caso continuo.4) lunghezza  lw     t  t  w  w t  Ew  dt  Caso discreto.1)  (4.

6) lunghezza  lw  i   i  t  w  2  wi 2 Ew Se il segnale w è reale positivo. In questo caso T le due definizioni danno lo stesso valore. Prendiamo ora un segnale pari a 1 durante il periodo da 0 a T e nullo altrove. nel caso discreto. wi (normalizzate con il loro integrale o somma) invece che i loro moduli quadri. ma non quello che ci piacerebbe. ma che utilizzano w  t  o. ma 12 . 126 . funzionerebbe meglio 2   . cioè T.8) cioè un valore più piccolo. sono spesso più comode le definizioni di posizione e durata analoghe alle precedenti.(4.7)  t2  w  t   A  exp   2   2   Se prendiamo quest’ultima definizione di larghezza. Facciamo due esempi. Prendiamo il segnale “gaussiano” (4. lw   2 Si noti che col nostro concetto di lunghezza o durata. Con la definizione precedente abbiamo w t  2   t2  t2  2  A  exp    A  exp   2  2   2      2 e quindi (4. abbiamo che la larghezza è  .

4.2 Convoluzione.12) la correlazione Rxy  k   i  x  k i  yi* 22 Qui vengono date le espressioni per dati discreti.11) la convoluzione. yk  che già conosciamo.10) la distanza d xy  i   x y i  2 i  (4.9) il prodotto vettoriale. i  x  k i  yi  (4. possiamo calcolare alcune utili parametri e funzioni22:  (4. detto anche cross-energia rxy  i   x y i  * i  (4. 127 . Analoghi concetti sono sviluppati nel caso continuo. cross-correlazione e distanza di due impulsi Dati due impulsi xi e yi .

possiamo definire posizione e larghezza per W    . abbiamo (4.14)   w t  2 1  dt  2    W   2  d     W  2   2  d dove    è la frequenza. usando la DTFT (la trasformata discreta di Fourier). Sia LW la larghezza di W    . si ha (4. 2 Nel discreto. o impulso.17) L’eguaglianza vale se (4.1). Il teorema di Parseval nel discreto diventa (4.4.16) i    wi  2 1 2 2  W  0 2  d Analogamente a come abbiamo fatto per w(t).3 Trasformata di Fourier di un segnale ad energia finita Data la condizione (4.18) lw  LW  1 2  t2  w  t   A  exp   2   4  lw  In tal caso la trasformata di Fourier è (4.19) e quindi (4. può essere Fourier-trasformato (4.13) W       w t   e  jt  dt Vale ovviamente il teorema di Parseval per cui  (4.15) W   i   w e i   j i (ricordiamo che     t è la pulsazione normalizzata). un segnale transitorio.20) 2 W    A  lw  2   exp  lw   2  lw  LW  1 2 128 .

Facciamo come esempio (4. è simmetrica rispetto all’origine. per i segnali reali. Se. la trasformata di Fourier è una funzione hermitiana e quindi W   . nel caso di w(t) “a banda stretta”. che è molto più “pregnante”.22)) è proporzionale a (4. se ci si limita alle frequenze positive invece LW  W e quindi lw  LW  . la larghezza di W   sia molto più grande di quella che sarebbe se si considerassero solo le frequenze positive.23)    0 2     0 2  exp    exp    2 2   4  W  4  W      con W  lw  LW 1 .. Se W  0 .q.d. Questo fa si che. ma LW (anche molto) più piccolo.e.22)  t2  w  t   A  exp    cos 0  t  2   4  lw  la cui trasformata (vedi (2. che è usata per calcolare la larghezza. il calcolo su tutte le frequenze porta a LW  0 e quindi 2  lw 1 1 . 2 2 129 . si ricava una nuova relazione di “indeterminazione” (4. si considerano le sole frequenze positive.21) 2 lw  LW  1 2 dove lw è lo stesso. Attenzione ! Se il segnale è reale.

24).25) S x     Rx  k   e jk k essendo Rx  k  ricavato dalla (4. ma analoga. abbiamo l’autocorrelazione (4. Vale il seguente risultato (teorema di Wiener-Kinchin): (4.4. se il segnale è complesso) è simmetrica rispetto a 0 ha ivi il suo massimo assoluto (e in questo caso in 0 vale 1) la sua trasformata di Fourier è sempre positiva (ed è lo spettro di energia) la “larghezza” dell’autocorrelazione (definita come in (4. Possiamo definire spettro di energia la trasformata di Fourier dell’autocorrelazione (4. gode di varie proprietà:      è la convoluzione del segnale con se stesso invertito temporalmente (e coniugato.4)) è 2 volte maggiore della w.4 Autocorrelazione e spettro di energia Se facciamo la correlazione incrociata di un segnale con se stesso. dall’autocorrelazione nel caso dei processi stocastici.26) S x    x k 2 k e  j k 130 .24) Rx  k   i  x  k i  xi* Questa definizione di autocorrelazione per i segnali impulsivi è ovviamente diversa. Come l’autocorrelazione nel caso dei processi stocastici.6) e (4.

che “sfasa” ogni componente sinusoidale di 90 gradi.33) 0  hi   2   i  per i pari per i dispari Vediamo un esempio. allora la trasformata di Fourier di xA(t) è (4. allora definiamo segnale analitico il segnale (4.27) e l’antitrasformata è (4.30)  jper   0 H  j    j  sign      jper   0 Se x’(t) è la trasformata di Hilbert del segnale reale x(t).29) cos   t  sin   t  per questo motivo è detta anche filtro di quadratura.31) xA  t   x  t   j  x '  t  Se X   è la trasformata di Fourier di x(t).28) x t    x '    d   t   1  x ' t   x    d   t   1    Questa trasformata è in effetti un filtro lineare che ha la proprietà fondamentale che sin   t cos   t  (4.4.5 Segnale analitico La trasformata di Hilbert di un segnale x(t) è definita come (4. 131 .32) 0per   0  X A     2  X  per   0  La trasformata di Hilbert si può definire anche nel discreto come un filtro di risposta impulsiva (4. Tale filtro ha la funzione di trasferimento (4.

Figura 4-1 Come si vede. il valore assoluto del segnale analitico è l’inviluppo del segnale originario. Ed ecco questo segnale analitico nel piano di Gauss Figura 4-2 132 .

133 .

né la posizione. la Pw (che non ha senso calcolare) sarebbe 0.35) Caso continuo. 134 . Per trattare questo tipo di segnali useremo la teoria dei processi stocastici. Come vedremo. segnale wi Pw  lim 1 K  wi K  2  K i  K 2 Per un segnale impulsivo. autocorrelazione e spettro di potenza.6 Segnali permanenti Chiamiamo segnale permanente un segnale che non è “localizzato” come un impulso. Analogamente all’autocorrelazione e allo spettro di energia che abbiamo definito per i segnali transitori. che possono essere viste come valori medi per unità di tempo. Per tali segnali non possiamo definire l’energia (che sarebbe infinita). la potenza  (4.4. definiremo le analoghe funzioni per i segnali permanenti. in taluni casi (processi stazionari) potremo parlare di un concetto analogo a quello di energia. segnale w  t  Pw  lim 1 T  2  T T T  w t  2  dt Caso discreto.34)  (4. né la larghezza.

t   dx  Per un dato valore del tempo t.4) 2  2  t   E  X  t     t        t   E  X  t        x  f  x. parliamo di processo stocastico continuo. t  x Abbiamo quindi il valor medio (o valore aspettato) (5. la variabile t è discreta). t   F  x. Per un processo stocastico X(t).1 Definizione Ricordiamo la nostra definizione di variabile casuale: “Una variabile casuale è una variabile (reale o complessa) al cui valore è associata una distribuzione di probabilità. se sono discrete di processo stocastico discreto.2) F  x.1) da cui la densità (5. t   dx   x   t  2    f  x. Mentre il processo stocastico è il modello generale. un processo stocastico si riduce a una variabile casuale. possiamo definire la funzione di distribuzione del primo ordine (5. t   P  X  t   x f  x.5 Processi stocastici 5. ricordiamo.3) e la varianza (5. Nel seguito svilupperemo il formalismo per lo più per il caso continuo. Se le funzioni del tempo sono continue. quello che si può osservare sperimentalmente è soltanto una realizzazione. Ciascuna delle funzioni del tempo viene chiamata realizzazione del processo stocastico. 135 . ma analoghi sviluppi si hanno nel caso discreto (dove.” In analogia.1 Introduzione 5.1. possiamo dare la seguente definizione di processo stocastico: Un processo stocastico è un insieme di funzioni del tempo alle quali è associata una distribuzione di probabilità.

t1 .. x2 . t1 .. t2    2 F  x1 . X tn   xn  e le relative densità (5. xn .2 Funzioni del secondo ordine Consideriamo le funzioni del secondo ordine. per qualsiasi n>0.. t1 | X  t   x2   f  x1 .10) f  x1 .7) e (5. t1 . t1     F  x1 .Si definiscono inoltre. x2 ... t   d x 1 2 1 2 2 Possiamo calcolare la densità condizionale come (5. t2  f  x2 .. possiamo crearne uno nuovo facendolo passare attraverso un opportuno sistema.11) f  x1. x . Dato un processo stocastico.. .... x2 .. tn    n F  x1 . (5. X t2   x2  f  x1 .6) f  x1 . tn   P  X t1   x1 .. t2   dx1  dx2 . t2  x1x2 F  x1 .. t2 . t2  Definiamo autocorrelazione la funzione (5.. t1 ... t2   E  X  t1   X  t2            xx 136 1 2  f  x1 . x2 .. Il nuovo processo ha in genere caratteristiche differenti da quello di partenza.xn Un processo stocastico è statisticamente definito se sono definite tutte le funzioni di distribuzione (o di densità) per tutti gli ordini.. x2 . t2   F  x1. x2 . x2 . t1 .. xn ... t1 . X t2   x2 . t1 . t2   P  X  t1   x1 .5) F  x1 . t1 . 5.1. le funzioni di distribuzione di ordine n come (5.8) Si noti che (5. t2 .. t2 . t1 . tn  x1x2 ... xn ... t .9) e (5.. t1   f  x ...12) R  t1 . x2 ..

t1 . t2   E  X  t1     t1     X *  t2    *  t2     In questo caso C ed R sono funzioni complesse.15) e (5. t2   E  X  t1   X *  t2    C  t1 . )  e  j d  Sebbene lo spettro di potenza contenga esattamente la stessa informazione dell’autocorrelazione. t1     R  t . x2 .17) S (t . t2   dx1  dx2   R  t1 . che per generalità consideriamo complessi. Si noti che è una generalizzazione del caso reale. t2   R  t1 . Dall’autocorrelazione R  t1 . Lo spettro di potenza. 137 .1. t    2 t  Se il processo è complesso (cioè se sono complesse le funzioni del tempo). spesso quest’ultimo è più facilmente interpretabile. più correttamente la densità spettrale di potenza. t    possiamo ricavare lo spettro di potenza (spesso chiamato semplicemente spettro) come la trasformata di Fourier (5. t2   E  X  t1     t1     X  t2     t2         (5. allora (5.e autocovarianza la funzione C  t1 . Lì discuteremo anche il senso delle frequenze negative. t2     t1     t2  la varianza si può ricavare come (5. t   R t. Ne parleremo estesamente in un prossimo capitolo.  )     R(t.14)  2 t   C t. 5.3 Il caso di due processi Supponiamo di avere due processi X(t) e Y(t).16) R  t1 . indica il contenuto “in potenza” (cioè quadratico) di un segnale.13)       x   t    x 1 1 2    t2    f  x1 .

t2 . t2  T .... t1  T . x2 .21) Rxy  t1 .20) Rxy  t1 .. x2 . 138 . t2   0 A partire dalla correlazione incrociata Rxy  t1 ... t2   E  X  t1   Y * t2   R* t1 .. Questa è la definizione di un processo stocastico stazionario “in senso stretto”.. tn  T  Ne deduciamo che per un processo stocastico stazionario si ha 23 24 Detta anche correlazione mutua. tn   F  x1... t1  T ...4 Stazionarietà.. Si ha cioè (5.. tn  T  F  x1 .. x2 . intercorrelazione o cross-correlazione. ergodicità Diciamo che un processo X(t) è stazionario24 se le funzioni che lo definiscono sono indipendenti da uno spostamento nel tempo di qualsiasi ampiezza. tn   f  x1. t2   Rxy  t1 . xn .. t2  yx   e la covarianza incrociata (cross-covariance) (5.  )    R xy (t . Si definisce anche la stazionarietà “in senso lato”. xn . t2   Rxy  t1 ..23) e (5.1... t2   x  t1    y  t2  Diciamo che i due processi sono scorrelati se (5. Cioè se per qualsiasi T X(t) e statisticamente indistinguibile da X(t+T).22) S xy (t ... )  e j d   S * (t .24) f  x1 .  ) yx 5.... xn .. t1 . t2   x  t1    y  t2  e diciamo che sono ortogonali se (5...18) Rxy  t1 ...19) Cxy  t1 .. t2  T . t    .. t2 . x2 . possiamo definire lo spettro incrociato (cross-spectrum) come (5.. t1     Rxy  t . xn .Possiamo definire la correlazione incrociata23 (cross-correlation) (5. t1 .

28) S ( )   Rxx  0    2   2   R( )  e  j d  Possiamo definire la potenza totale del processo l’integrale totale su tutta la banda di frequenza (non pulsazione).25)   t     costante   E  x  t  è anche detto cumulante del primo ordine. t2   R    R*    C  t1 .30) e del quarto ordine Cxxx 1 . 2   E  x*  t   x  t  1   x  t   2    139 . sono nel   caso del del terzo ordine (5.f ( x. anche il     cumulante del secondo ordine Cxx   .   ponendo   t2  t1 . che.26) R  t1 . nell’ipotesi che sia E  x  t    0 . abbiamo f  x1 . Lo spettro di potenza in questo caso perde la dipendenza dal tempo e viene definito come (5. Notiamo che (5.29) R  0  1 2    S   d     S  2   d Possono definirsi cumulanti di altri ordini. x2 . t1 . t2   C    C *    Rxx    R    E  x*  t   x  t    è. x2 . nell’ipotesi che sia E  x  t    0 . t )  f ( x) (5. ottenendo (5. t2   f  x1 .27) è la varianza del processo.  (5.

(5.31) dove (5.32)

Cxxxx  1 , 2 , 3   E  x*  t   x  t   1   x  t   2   x*  t   3    
* Cxx  1   Cxx  2   3   Cxx  2   Cxx  1   3   M xx  3   M xx  1   2 

M xx    E  x  t   x  t     

è il momento del secondo ordine (eguale al cumulante del secondo ordine nel caso di processi reali). e notiamo che da Cxxx  0, 0  si ricava il momento del terzo ordine e da Cxxxx  0,0,0  quello del quart’odine. Tutti i cumulanti di processi stazionari reali sono simmetrici nei loro argomenti, cioè

Cxx    Cxx   
(5.33)

Cxxx  1 , 2   Cxxx  2 , 1   Cxxx   1 , 2   1  Cxxxx  1 , 2 , 3   Cxxxx  2 , 1 , 3   Cxxxx  1 , 3 , 2   Cxxxx   1 , 2   1 , 3   1 

La trasformata di Fourier di Cxxx 1 , 2  è detto bispettro e si indica con S xxx 1 , 2  , (5.34)
S xxx 1 , 2  

 

  R  ,   e
xxx 1 2

 

 j11

 e  j2 2  d 1  d 2

la trasformata di Fourier di Cxxxx 1 , 2 , 3  è detto trispettro e si indica con S xxxx 1, 2 , 3  (5.35)
S xxx 1 , 2 , 3  

 

  R  ,
xxx 1

 

2

, 2   e  j11  e  j2 2  e  j3 3  d 1  d 2  d 3

Per due processi congiuntamente stazionari (jointly stationary) abbiamo (5.36)

Rxy  t1 , t2   Rxy    E  X  t     Y *  t   

Diciamo ergodico un processo in cui le statistiche di insieme sono eguali alle statistiche temporali. In altre parole possiamo conoscere tutte le proprietà del processo stocastico osservando la realizzazione effettiva. È intuitivo che un processo non può essere ergodico se non è stazionario. La stazionarietà e l’ergodicità possono essere ristrette ad alcune caratteristiche del processo (per esempio la media, la varianza o l’autocorrelazione).

140

5.1.5 Esempi
Facciamo tre esempi (di processi continui): 1. Consideriamo un processo che contiene 3 funzioni del tempo
1 2 1 x2  t   sin  2  50  t Prob. 4 1 x3  t   sin  2 100  t Prob. 4 x1  t   0Prob.

Questo processo stocastico potrebbe essere il modello di un dispositivo elettrico che con probabilità 0.5 è acceso (e ovviamente con la stessa probabilità è spento) e quando è acceso può generare con eguale probabilità una sinusoide a 100 Hz o una a 50. 2. Consideriamo un processo che è composto di infinite funzioni del tempo definite da
xA  t   A  sin 10  t 

dove A è distribuita uniformemente tra 0 e 2. Questo processo stocastico potrebbe essere il modello di un oscillatore elettrico che genera una tensione sinusoidale, con una manopola che ne stabilisce l’ampiezza, e la manopola può stare in una qualsiasi posizione con la stessa probabilità (ma non può' essere cambiata di posizione). 3. Consideriamo tutte le possibili funzioni del tempo che possono aversi come uscita di un contatore di particelle che rivela per esempio raggi cosmici. Anche in questo caso ci troviamo di fronte a un processo stocastico, anche se è più difficile conoscere la distribuzione di probabilità delle varie realizzazioni (e in parecchi casi non serve, essendo sufficienti altre funzioni, più semplici, legate alla distribuzione di probabilità).

5.2 Trasformazioni di processi stocastici
Dato un processo stocastico X, possiamo assegnare secondo certe regole a ciascuna funzione del tempo x(t) del processo, una funzione y(t), ottenendo un nuovo processo stocastico Y. Y può essere considerato l’uscita di un opportuno sistema. Far passare un processo stocastico X attraverso un sistema F significa costruire un nuovo processo Y in cui tutte le funzioni del tempo x(t) sono sostituite dalle uscite y(t) di F alle x(t). Consideriamo alcuni casi particolari.

141

5.2.1 Sistema statico (senza memoria)
Sia in tal caso (5.37)
Y t   g  X t 

Le funzioni di densità del processo Y sono ricavabili con le tecniche di trasformazione delle variabili aleatorie. Si ha (5.38)
f y  y1 , y2 ,..., yn ; t1 , t2 ,..., tn   | g '  x1  |  | g '  x2  | ... | g '  xn  | f y  x1 , x2 ,..., xn ; t1 , t2 ,..., tn 

con yi  g  xi  . Per quanto riguarda il valor medio e l’autocorrelazione abbiamo (5.39) e (5.40)
Ryy  t1 , t2   E  y  t1   y  t2     
 

E Y  t     



 g  x   f  x; t   dx
x

 

  g  x   g  x   f  x , x ; t , t   dx  dx
1 2 x 1 2 1 2 1

2

Inoltre, se X è stazionario, anche Y lo è.

5.2.2 Sistema lineare (tempo invariante)
Indichiamo con L l’operatore lineare che descrive il sistema. (vedi (1.10)). Si hanno i seguenti risultati: (5.41) (5.42) (5.43)

E Y  t   L  E  X  t       

Rxy  t1 , t2   Lt2  Rxx  t1 , t2    Ryy  t1 , t2   Lt1  Rxy  t1 , t2   

Con Lt2 indichiamo “rispetto alla variabile t2”, considerandola variabile corrente e t1 parametro; analogamente per Lt1 .

142

Se il processo in ingresso a un sistema lineare tempo invariante è stazionario, lo è anche quello in uscita. Nell’ipotesi di stazionarietà, supponiamo di avere un sistema (continuo) definito da una funzione di trasferimento F(s), ovvero dalla risposta impulsiva f(t). Per il valor medio si ha ha (5.44)
   E Y  t    Y  E   X  t    f    d    X   f    d   X  F  0       

Per calcolare l’autocorrelazione dell’uscita è opportuno calcolare prima la correlazione incrociata tra l’uscita e l’ingresso:

(5.45)

  RYX    E Y  t   X *  t      E   x(t   )  x* (t   )  f   d       


e (5.46)



 R      f   d
XX

RYX   



 R      f    d
XX *

e quindi

(5.47)

  RYY    E Y  t     Y *  t    E   y (t   )  x* (t   )  f *   d       



 R      f   d
YX *

Ora, ricordando la proprietà della convoluzione e la definizione di spettro di potenza, troviamo (5.48) e (5.49)
SYY    S XX    | F  j  |2 S XY    S XX    F *  j 

Lo stesso risultato per gli spettri possiamo ottenerlo ragionando sul significato di spettro di potenza e di funzione di trasferimento. Infatti, in una banda molto piccola intorno a 0 il segnale è approssimabile con una sinusoide con una certa ampiezza A e una certa fase; lo spettro di potenza è kA2, dove k è una

143

opportuna costante, e indipendente dalla fase. Il passaggio attraverso il sistema lineare modifica ovviamente tale valore di un fattore F  j0  , come descritto dalla (5.49). Analogamente si può ragionare per la (5.48).
2

5.2.3 Un caso particolare: il derivatore
Il derivatore, che esegue la derivata di un processo stocastico, spesso detta derivata stocastica (ovviamente le funzioni che compongono il processo devono essere derivabili). Abbiamo in questo caso (5.50)
E  x '  t     dE  x  t     dt

(5.51)

Rxx '  t1 , t2  

Rxx  t1 , t2  t2

(5.52)

Rx ' x '  t1 , t2  

Rxx '  t1 , t2   2 Rxx  t1 , t2   t1 t1t2

e se il processo è stazionario, con   t1  t2 , (5.53)
Rxx '     dRxx   d

(5.54)

dRxx '   d 2 Rxx   Rx ' x '     d 2 d 2

144

con essi. t2 ... tn    exp   n 2    2  | M |   1 dove x   x1 .55) abbiamo (5.   t2  . Analogamente abbiamo che: PROPRIETÀ II . per cui. definita la matrice M di covarianza tra le n x  ti  con elementi (5.. Molto spesso fenomeni naturali (e non) sono ben rappresentati da processi stocastici normali 2.. quando possibile.. t2  (o l’autocovarianza C  t1 . Particolarmente semplice e illuminante è lo sviluppo nell’ipotesi stazionaria. xn . otteniamo in uscita un processo normale. xn  e     t1  .   tn  .. Cioè se facciamo passare un processo normale attraverso un sistema lineare..3.. t2     t1     t2  ).Una trasformazione lineare di un processo stocastico normale produce un processo stocastico normale.3 Processi stocastici normali 5.56) mij  C  ti . anche se i fenomeni di interesse non sono esattamente rappresentabili con processi normali. 145 . si può' costruire una semplice ed elegante teoria dei processi stocastici normali. si preferisce approssimarli. che d’ora in poi sottintenderemo verificata. in cui sono normali le funzioni di densità di qualsiasi ordine... x2 .1 Proprietà fondamentali Chiamiamo normale (o gaussiano) un processo stocastico. t2   R  t1 . t j    x     M 1   xT   T    f  x1 .. Ecco le due proprietà fondamentali: PROPRIETÀ I .. Infatti.. una trasformazione lineare di una variabile casuale normale produce una variabile casuale normale.Per un processo stocastico normale la funzione densità di ordine n (per qualsiasi n) è determinata se sono note la media   t  e l’autocorrelazione R  t1 . Come sappiamo. Grazie alle proprietà matematiche che appresso enunceremo...5. Ci sono due motivi per cui i processi stocastici normali sono di grande importanza: 1. x2 .. t1 .

non sulla fase. è un rumore “possibile”.3.58) S ( )     R( )  e  j d       ( )  e  j d   1 Lo spettro quindi contiene tutte le frequenze.3. Questo. Non così 25 Talvolta si parla di rumore “rosa” per indicare un rumore con spettro abbastanza piatto alle basse frequenze e praticamente nullo alle alte. che sono da essi generati. non abbiamo modo di capire quale sia la vera funzione di trasferimento usata. O. con la stessa ampiezza.5. cioè tutte le frequenze (in realtà solo del visibile e non tutte con la stessa potenza)25. è caratterizzato da potenza infinita. lo sono. 5.57) R       Cioè due valori del processo a due istanti qualsiasi. Ciò per la presenza di potenza a tutte le frequenze.3 Processi stocastici normali e sistemi lineari Ricordiamo che un processo stocastico normale è statisticamente definito se è dato il valor medio e l’autocorrelazione. Ciò ci induce a modellare qualsiasi processo stocastico normale come l’uscita di un opportuno sistema lineare al cui ingresso sia stato posto rumore bianco. se è dato lo spettro di potenza. e quindi tutti i segnali fisici. Comprendiamo allora il motivo del nome “bianco”: è in analogia con la luce bianca. a parte altre caratteristiche “ideali”. È immediato vedere che la densità spettrale di potenza è (5. 146 . Ricordando la (5. a differenza del rumore bianco.59) | F  j  |2  S   Ci sono infiniti sistemi che godono della proprietà (5. è un processo stocastico normale stazionario (ed ergodico) definito da  t   0 (5.49) e la (5. il sistema deve avere una funzione di trasferimento tale che (5. Notiamo che il rumore bianco. che è composta da tutti i colori. in altre parole. comunque vicini. se vogliamo modellizzare (o anche simulare) un processo stocastico normale con spettro S   .59): infatti questa relazione impone vincoli sul modulo della funzione di trasferimento.58).2 Il rumore bianco Il rumore bianco. Ciò significa che dal punto di vista statistico due processi stocastici normali che hanno lo stesso spettro sono statisticamente indistinguibili. si vede che. sono scorrelati (e indipendenti: ricordiamo che due variabili casuali normali con correlazione nulla sono indipendenti). Tutti i sistemi fisici sono limitati in frequenza. Se osserviamo il processo in uscita.

147 . Ma le proprietà dei processi stocastici normali e dei sistemi lineari ci permetteranno di sviluppare semplici soluzioni a una varietà di problemi. Abbiamo quindi trovato un modo di rappresentare e possibilmente simulare un processo normale con un sistema lineare. come possiamo renderci conto considerando la (5.48).se possiamo osservare anche il rumore bianco in ingresso. come per esempio quello della rivelazione dei segnali immersi nel rumore.

43). si ha semplicemente la varianza del segnale.62) S '    S     t  .er lo più per i processi continui.4 Processi discreti: processi ARMA 5. Se invece della pulsazione normalizzata  vogliamo usare quella fisica   spettrale va opportunamente normalizzata (5. la densità t Ciò garantisce la proprietà fondamentale che l’integrale sull’intera banda della pulsazione ( nel caso di  . Se l’integrale viene fatto nella frequenza invece che nella pulsazione.60) Sx    i   R i   e xx   j i e lo spettro incrociato dalla correlazione incrociata Rxy  i  (5. In particolare per quanto riguarda la teoria dei processi normali e i sistemi lineari.4.42) dell’autocorrelazione Rxx  i  (5. Sintetizziamo qui i risultati più imporanti. per i processi discreti si ottengono analoghi risultati considerando sistemi discreti. Analoghi sviluppi possono farsi nel caso dei processi discreti.61) S xy     i   R i   e xy   j i Ovviamente vale la formula di inversione (3. possiamo definire lo spettro di potenza come la trasformata di Fourier per dati discreti (vedi (3. Analogamente al caso continuo.1 Résumé dei risultati La teoria dei processi stocastici è stata fin qui sviluppata p. Consideriamo lo schema seguente: 2 t 148 . 2 nel caso di  ) sia pari alla varianza del segnale moltiplicato 2 .5.

.66)    vi  j  vi*   E  f k  xi k  j  vi*    f k  Rxv  j  Rvv  j   E    k 0  k 0 * e poiché Rxv  j   Rvx   j  . ….wi sono processi stocastici normali discreti. yi . 149 .64) wi   g k  yi  k k 0  Allora (5.65)   * Rvx  j   E vi  j  x   E  f k  xi k  j  xi    f k  Rxx  j     k 0  k 0 * i (5. Dalla (3.63) G  z    gi  z i i 0  e quindi vi   f k  xi  k k 0  (5.vi .57) abbiamo F  z    fi  z i i 0  (5.xi xi F(z) xi vi xi yi G(z) Figura 5-1 xi wi In esso xi .

69) Svy  z   F  z   S xy  z  (5. allora (5. lo spettro è piatto come nel caso del rumore bianco continuo.67) e (5. ovvero      . a differenza del rumore 150 .72) Svv  z   F  z 1   Svx  z   F  z   F  z 1   S xx  z  | F  z  |2 S xx  z  5.2 Rumore bianco discreto Anche nel caso discreto possiamo definire il rumore gaussiano bianco.73) e lo spettro. quindi. è (5. Come si vede.71) Svx  z   F  z   S xx  z  (5. ma la banda del segnale è limitata.75) S '    S     t   2  t dove 0    2 .68) Rvw  j       Rvy  j   E vi  j  yi*   E  f k  xi k  j  yi*    f k  Rxy  j    k 0  k 0 Per passare agli spettri si usa la proprietà della convoluzione e si ha (5.42).74) S     2 R  j    2  j Se vogliamo “lavorare” con le frequenze fisiche.4..70) Svw  z   G  z 1   Svy  z   F  z   G  z 1   S xy  z  che comprende come caso particolare (per xi  yi e F=G) (5. Esso consiste in una successione di campioni distribuiti normalmente con valor medio nullo (e spesso si prende con varianza unitaria).e inoltre (5. usando la (3. L’autocorrelazione è (5.

bianco continuo. questo non crea paradossi. Ecco una realizzazione di rumore bianco discreto (1000 campioni) Figura 5-2 ed eccone l’istogramma 151 . indipendenti. Si noti come la densità spettrale “fisica” si abbassi proporzionalmente al tempo di campionamento. è fisicamente realizzabile: infatti non è altro che una successione di valori distribuiti gaussianamente con varianza  2 .

Figura 5-3 e la (stima della) autocorrelazione 152 .

Ecco i grafici dell’autocorrelazione. 5.Figura 5-4 5. di funzione di trasferimento F(z).4 Processo AR del primo ordine (reale) Consideriamo il caso in cui b0=1. a0=1. a1=-0. essendo 1 il tempo di campionamento.76) S      2  | F  e j  |2 Se il sistema è un sistema AR o MA o ARMA.. MA o ARMA. MA e ARMA Se mettiamo in ingresso a un sistema lineare discreto.4. produciamo un processo stocastico normale con media nulla e spettro di potenza (5.99. dello spettro e 1000 campioni di una realizzazione 153 . del rumore bianco di varianza  2 .4.3 Processi AR. diremo che il processo è rispettivamente AR. Mostriamo ora alcuni casi.

Autocorrelazione Figura 5-5 Spettro (in ascissa la frequenza) Figura 5-6 154 .

0.025 .99  exp(. a    40 Possiamo dire che questo processo è una rotazione oraria di 360/40=9 gradi nel piano di Gauss del processo reale precedente. abbiamo una risonanza a frequenza negativa.4.j  pi / 20)  ( .5 Processo AR del primo ordine (complesso) Consideriamo il caso in cui b0  1. Si noti che in questo esempio il tempo di decadimento è lo stesso dell’esempio precedente. a1  0. a0  1. 155 .Un pezzo di una realizzazione Figura 5-7 5.1549) essendo 1 il tempo di campionamento.9778  j  0. dello spettro e 1000 campioni di una realizzazione. Ecco i grafici dell’autocorrelazione. ma 1  0.

Autocorrelazione (la parte immaginaria è punteggiata) Figura 5-8 Spettro 156 .

Figura 5-9 Un pezzo di una realizzazione (la parte immaginaria è punteggiata) Figura 5-10 Parte immaginaria vs reale 157 .

7147.Figura 5-11 5. a1  2  0. a2  r 2  0.9801 6 Abbiamo Autocorrelazione 158 .4.6 Processo AR del secondo ordine Consideriamo il caso in cui   b0  1.99  cos    -1. a0  1.

Figura 5-12 Spettro 159 .

Figura 5-13 Pezzo di dati Figura 5-14 160 .

5.5 Processo di Poisson
Analizziamo un altro processo stocastico, di grande interesse non solo in Fisica, il processo di Poisson, che, come suggerisce il nome, è collegato alla distribuzione di Poisson. Il problema è quello di modellare un processo fisico che consiste nella generazione di eventi, tutti eguali, distribuiti in modo uniforme nel tempo. Un esempio è il decadimento radioattivo di un campione di materiale; gli eventi sono i singoli eventi rivelati da un contatore. In questo caso il tempo di osservazione deve essere molto più breve del tempo di decadimento dei nuclei del materiale, altrimenti gli eventi non sono distribuiti uniformemente nel tempo. Un altro esempio di interesse fisico è il passaggio di una giunzione da parte di elettroni o lacune. Questo processo, in cui il numero di eventi è molto grande nell’unità di tempo26, è la causa del rumore shot. Sebbene si possa definire opportunamente anche nel discreto, il processo di Poisson è un processo stocastico continuo. Le funzioni del tempo del processo possono essere la successione di delte di Dirac (5.77)

x t  

i 

  t  t 
i

dove con ti si indicano gli istanti di occorrenza degli eventi. Spesso come funzioni del processo vengono prese le funzioni non decrescenti a valore intero che contano il numero di arrivi prima del tempo t: in pratica l’integrale della x(t) di (5.77), da 0 a t. Il processo ha un unico parametro, indicato con  , che indica la densità degli eventi, cioè il numero aspettato di eventi nell’unità di tempo. Nel periodo di tempo T si aspetta il numero di eventi (5.78)

   T

La distribuzione degli eventi in tale periodo è data dalla distribuzione di Poisson (5.79)

 T  P(k ) 
k!

k

e  T

e il numero di eventi in due intervalli disgiunti sono due variabili casuali indipendenti. Si può calcolare che il tempo  tra due eventi successivi ha densità di probabilità esponenziale (5.80) con valor medio
26

f      u    e 

Il passaggio della giunzione non è istantaneo, quindi, se il numero di eventi è elevato, dalla corrente risultante possono non essere “risolti” i singoli eventi.

161

(5.81)

E   

1

Non sempre il processo di Poisson con  costante è un buon modello per processi fisici a eventi (in cui la cosa importante è il tempo di occorrenza degli eventi, non altre loro caratteristiche). Ciò perché la densità non è uniforme nel tempo, ma può variare; il processo cioè è descritto non più dal parametro  costante, ma dalla funzione del tempo   t  . In tal caso possiamo calcolare il numero aspettato di eventi nel periodo t1  t  t2 come (5.82) e la distribuzione è
 t2      t   dt   t2  t dt t  1  e t 1 P(k )  k!
k

     t   dt
t1

t2

(5.83)

162

6 Analisi statistica dei segnali
Finora abbiamo sviluppato strumenti teorici per descrivere e manipolare segnali. Passiamo ora alla parte applicativa, cioè, dato un segnale, come ottenere le informazioni di nostro interesse. Supponiamo che i nostri dati siano schematizzabili come un processo stocastico stazionario ed ergodico. Farne l’analisi significa ricavare informazioni su questo processo, cioè stimare i suoi parametri. Tali stime vengono eseguite a partire dalla singola realizzazione del processo, l’unica disponibile; l’ipotesi di ergodicità ci garantisce che ciò sia possibile. Si ricavano essenzialmente informazioni sulla distribuzione del primo ordine e su quella del secondo (o meglio, sulle funzioni a questa collegate di autocorrelazione e spettro di potenza). Nel caso gaussiano ciò esaurisce la descrizione del processo; non nel caso generale. Prima di far ciò, tuttavia, discuteremo dei problemi connessi alla discretizzazione dei segnali continui, procedura fondamentale per far uso dei calcolatori digitali. Bisogna dire che alcune procedure di analisi e di elaborazione dei segnali possono essere eseguite con l’uso di dispositivi analogici, ma questa alternativa è diventata sempre meno appetibile con lo sviluppo dei sistemi di elaborazione digitale. _____________________________________________________ Compiti preliminari dell’analisi del segnale sono:       determinazione della quantità dei dati da analizzare (ovviamente è ben diverso analizzare 100 numeri o 1010, sia per le tecniche, sia per gli obiettivi identificare la “dinamica” del segnale in gioco, cioè quale è il presumibile intervallo dei valori delle ampiezze che potrà prendere indagare preliminarmente sulla banda del segnale osservato indagare sulla presenza di trend (cioè di tendenze di fondo, per esempio a salire indagare sulla stazionarietà del fenomeno che si sta osservando indagare sulla presenza di periodicità

Una volta che siano chiariti, anche se in modo non minuzioso, gli interrogativi di questa preanalisi, si può procedere ad una corretta acquisizione dei dati e ad analisi più approfondite.

163

6.1 Il campionamento
I segnali prodotti dai processi fisici sono in genere continui. Per analizzarli ed elaborarli con i calcolatori digitali devono essere campionati. Come possiamo campionarli ? Quali problemi comporta il campionamento ? Campionare significa prendere i valori di un segnale continuo a certi istanti temporali che costituiscono un insieme discreto. Come scegliamo questi istanti ? Una scelta semplice è quella di prendere gli istanti di tempo equispaziati (campionamento uniforme). Anche così dobbiamo scegliere la spaziatura, cioè il tempo di campionamento. Per far ciò possiamo utilizzare il teorema del campionamento. Ci sono però casi in cui è meglio usare un campionamento non uniforme. Per esempio    per adattarlo alla variabilità del segnale perché non siamo nelle ipotesi del teorema del campionamento, né possiamo mettercisi perché una certa analisi è semplificata da un campionamento non uniforme.

6.1.1 Teorema del campionamento
Il problema è questo: se campioniamo un segnale discreto, ne cogliamo tutte le caratteristiche ? In altre parole, possiamo, a partire dai campioni, ricostruire il segnale originale ? Il teorema del campionamento, formulato nel 1928 da Nyquist e provato nel 1949 da Shannon, è il seguente: Se un segnale reale ha spettro di potenza nullo per frequenze superiori a una data  0 , esso può essere completamente ricostruito se è campionato ad una frequenza (6.1)

 s  2  0
1 , dove ts è il tempo di campionamento, la ts

Data una frequenza di campionamento  s  frequenza  N 

è detta frequenza di Nyquist. 2 Dati i campioni  xi  , nell’ipotesi del teorema, possiamo ricavare il segnale originale come
  2t  sin    i   ts   x  t    xi    2t  i   i  ts 

s

(6.2)

164

la funzione sinc    seguente andamento

sin     che compare nella (6.2) , detta funzione interpolante, ha il  

Figura 6-1

ed è la trasformata di Fourier della funzione

(6.3)

 1  per   t   f  t    2 0altrove 

Osservando la funzione d’interpolazione, notiamo che correttamente essa si annulla nei punti in cui ci sono altri campioni (infatti a quegli istanti la x(t) è completamente definita dal campione), ma può stupire che in certi punti sia addirittura negativa: come mai ? Sono delle correlazioni negative introdotte dal taglio in frequenza. Notiamo che la (6.2) non è altro che l’uscita di un filtro passa-basso “perfetto”, con funzione di trasferimento (6.4)
1per   N      N F  j    0altrove

al cui ingresso sia stato posto il segnale

165

Ciò che succede è che le frequenze più elevate di  N  s 1 In figura sono mostrate due sinusoidi. una a frequenza   Hz (la frequenza di 5 4 campionamento è 1) e una a  '   s   Hz . quella a più alta 1. In genere una frequenza 166 .2 Aliasing e filtri anti-aliasing Che succede se si campiona con un tempo di campionamento che non rispetta la condizione posta dall’equazione (6. anche se la sinusoide a più bassa frequenza ha 5 campioni a periodo. frequenza di Nyquist.1. Questo fenomeno viene detto con termine inglese aliasing. si 2 “mascherano” da frequenze inferiori a  N .(6.25 campioni (meno dei 2 prescritti dal teorema del campionamento. 5 Figura 6-2 Si vede che le due sinusoidi condividono esattamente gli stessi campioni.1) del teorema del campionamento ? .5) x t   i   x   t  i  t  i s  6.

Ciò però può significare dover scegliere una frequenza di campionamento abbastanza maggiore di 2  B .1. si usa un “rozzo” filtro anti-aliasing analogico. in genere a 24. per esempio per abbassare la frequenza di campionamento (vedi il prossimo paragrafo). allora la ricostruzione è semplificata. per esempio lo stroboscopio. abbiamo visto che l’asse delle frequenze si suddivide in bande “aliasate”: se la banda del segnale entra tutta in una di queste bande aliasate. possiamo teoricamente generalizzare il teorema del campionamento. Ci sono usi pratici importanti dell’aliasing. se si vuole un campionamento a una frequenza  S . quindi di nuovo nell’altro verso e così via. limitando la frequenza di campionamento a 2  B .  . Accelerando. Per esempio è dovuto all’aliasing il fatto che a volte nei film le ruote delle carrozze sembrano girare al contrario (un film è infatti una successione di immagini campionate. data la molto maggiore facilità di realizzazione dei filtri digitali.   N  s 1essendo1   s s 2 . più correttamente. in modo da porsi nelle condizioni del teorema del campionamento (nessuna componente a frequenze superiori alla frequenza di Nyquist). o. analogici. se i raggi delle carrozze hanno tra di loro un angolo  e tra un fotogramma e l’altro la ruota gira di un po’ più di questa appare girare al contrario.(6. da  1 Il fenomeno dell’aliasing è ben noto nella vita pratica. ma più lentamente. 2 Il fenomeno dell’aliasing è in genere dannoso nell’analisi dei segnali perché aumenta il livello del rumore. e ciò si fa con opportuni filtri passa basso. Ben più difficile è però la procedura di ricostruzione.6) si “maschera” da  1 se  1  . Infine vogliamo ricordare che talvolta l’aliasing nell’analisi dei segnali può essere usato utilmente. Talvolta. prima del campionamento. 6. Va quindi eliminato o per lo meno limitato. quindi un filtro anti-aliasing digitale “perfetto” che limita il segnale nella banda di Nyquist voluta.4 Il caso dei segnali complessi 167 . Dato una certa frequenza di campionamento. una frequenza di campionamento molto più elevata di quella voluta. 25 o 30 Hz. 6. apparirà girare nel verso giusto.3 Generalizzazione Se il segnale ha lo spettro nullo al di fuori di una certa banda B (che non necessariamente inizia da 0). altrimenti si maschera da  s  1 .1. Si procede quindi a un sottocampionamento alla frequenza voluta.

Se il segnale  xi  è schematizzabile con un rumore bianco (cioè i campioni sono indipendenti) i campioni  i  del rumore di quantizzazione sono indipendenti e distribuiti uniformemente tra  x x e .9) costante.1. c’è differenza tra le frequenze positive e negative. tanto migliore è il convertitore: essendo M il massimo range coperto dal convertitore. il quanto di conversione è  x  S    12 2  t 168 .Se il segnale è complesso. Se il campione vale x. (5. Ciò può essere utilizzato per ridurre l’errore di quantizzazione: vediamo come. La “classe” di un ADC è data dal numero di bit N usati per la conversione. 6. perché ciascun campione è “doppio” (parte reale e parte immaginaria).8)  x    2 2 12 e lo spettro di potenza è (vedi eq. Si noti che la densità spettrale decresce con l’aumentare della frequenza di campionamento. Questo numero è il numero che.7)  x x  x  n  x  2 2 Al valore vero x del campione assegneremo il valore “quantizzato” x  n  x  x   . abbiamo il doppio di campioni reali. detto rumore di quantizzazione.5 Rumore di quantizzazione Quando si digitalizza un segnale continuo. Tuttavia il numero di campioni necessari è la metà. oltre ai problemi relativi al campionamento. meglio approssima il valore del campione (che è un numero reale). Possiamo schematizzare questo processo come l’aggiunta di un rumore  .90)) 2 2 (6. ricaviamo un valore n tale che (6.74) e (5. moltiplicato per una quantità x chiamata quanto di conversione.75) ) (6. Quanto maggiore è il numero di bit. indipendente da  . Il segnale campionato infatti viene trasformato in un numero intero (e memorizzato come tale) tramite l’uso di un convertitore analogico-digitale (ADC). si devono considerare i problemi relativi alla quantizzazione. ma descriviamo una banda doppia: la simmetria rispetto alla frequenza di Nyquist non c’è. La varianza è (vedi eq. quindi la banda del segnale da considerare è doppia. Detto in altre parole. (2. in genere 8 o 12 o 16.

che equivale a circa 24 bit di mantissa. applicare un buon filtro anti-aliasing (in software) e sotto-campionare a  S : i campioni ottenuti ora sono numeri “reali” (non più “interi”).11) bit di conversione in più. perché l’uscita del filtro e composta da numeri floating point (a 32 bit. o più se si lavora in doppia precisione) e avranno un errore di quantizzazione equivalente con spettro S ' volte più basso e quindi è come se avessimo S (6.10) x  M 2N L’idea è quella di campionare i dati analogici a una frequenza  S ' molto più elevata di quella richiesta  S .(6.  '  1 log 2  S  2  S  169 .

se se ne usano troppi.2).6. In genere i dati sono correlati e la situazione è peggiore. supponiamo che il segnale abbia una autocovarianza C  k  e vogliamo stimarne il valor medio facendo la media di n campioni successivi (6. si hanno informazioni un po’ “rozze” sulla f(x). si ha circa 170 .2 Caratteristiche statiche – Istogramma.14) C k     e 2  k  1 N x i 1 N i 2   1 N k  N  C  k   1  N    N  k   abbiamo approssimativamente (per   1 ) N   2    2  1  e  2    1  N N    (6. Un altro modo per avere informazione sulla f(x) è stimarne il valor medio (per esempio con la media aritmetica). che non necessariamente saranno tutti uguali. Se N ' è grande.13) Nel caso in cui (6. che nel caso stazionario si riduce a f(x)) può ottenersi facendo un istogramma dei dati. Per fare questo istogramma occorre scegliere bene i bin.12) e la varianza su questa stima è (6. per il caso del valor medio. Per esempio. la varianza ed eventualmente i momenti superiori. pochi dati andranno nei singoli bin e quindi si avranno grosse fluttuazioni percentuali e quindi errori. essendo p la probabilità che un valore vada nel bin i oggetto ed N il numero totale dei dati. Notare che solo raramente i dati istogrammati saranno indipendenti: in questo caso il numero di dati che entrano in un dato bin è distribuito approssimativamente secondo una distribuzione di Poisson con parametro   N  p . Ricordiamo che la deviazione standard è    . normalizzato per il numero totale dei dati utilizzati. Anche in questo caso la convergenza statistica verso il valore vero è rallentata dalla presenza di correlazioni. momenti campionari Una stima della densità del primo ordine (vedi (5. Se si usano pochi bin.15)   2   2  1  e N '   1  N'  N'      dove N '  N  è la “lunghezza equivalente” del pezzo di dati.

(6.16) N   2    2  1  e   1    N N    2   2   2  1  e N '   1  N'  N'      171 .

Il primo stimatore è nondistorto (unbiased).. la parte reale è una funzione pari.. si deve avere (6. ma sostituiamo la variabile continua  con la discreta k e la densità di probabilità con la distribuzione: (6.... possiamo stimare la R  k  sostituendo il valore aspettato della (6.20) Una diversa stima è (6. che nell’ipotesi stazionaria diventa (6.17) R    E  X  t     X *  t            xx * 1 2  f  x1 . xN  : (6. 2 .19) R  k   E  X  i  k   X * i     i1  i2   xx   * i1 i2  f xi1 .. possono esserci altri valori di  in cui R    R  0  . Questa proprietà deriva dalla proprietà di essere definita positiva. x2 .3 Autocorrelazione La definizione di autocorrelazione di un processo stocastico è data dalla (5. 172 . comunque presi n numeri arbitrari a1 .6. k   Data l’ipotesi di ergodicità. a2 .18)  R  i 1 l 1 n n i   l   ai  al  0 Nel caso discreto la situazione è analoga. ma sui valori di k vicini a N ci sono forti incertezze (fluttuazioni). la parte immaginaria (se presente) è dispari... cioè che. xi2 . n . la differenza è nel coefficiente di normalizzazione.   dx1  dx2 Data la commutatività della moltiplicazione.. an ed n numeri reali 1 ..17) con la media su un pezzo di dati  x1 . quindi la sua trasformata di Fourier è reale c) La sua trasformata di Fourier è non-negativa. Inoltre gode delle seguenti proprietà: a) R(0) è reale ed è il massimo assoluto.. ma solo se la X è periodica e  è un multiplo del periodo b) R    R*    . x2 ..21) R k   1 N k N k i 1 x ik  xi* R k   1 N N k i 1 x ik  xi* Come si vede.12).

Questa operazione viene detta “finestratura” (windowing). in genere minori alle estremità.2). (6.4.21) si ricava dalla (6.24) R k   1 F N 1 | X   |  2 dove con F 1 indichiamo la trasformata inversa di Fourier. Esse (o meglio la (6. Ne segue che. La (6. ma la (6.21) è ottenuta tramite la (6.20) tramite una “finestra” a triangolo isoscele detta “finestra di Bartlett”. La stima (6. ma così sono ridotte anche le fluttuazioni).22) R k   1   xik  xi* N i  Ricordiamo che la convoluzione tra le successioni a e b (eq. cioè dei pesi opportuni. pari ai nostri campioni. si veda al capitolo sui filtri in frequenza). a parte i valori per i da 1 a N.4)) è (6.21)) vengono sostituite dalla seguente procedura che si avvale della FFT (Fast Fourier Transform.La seconda stima è chiaramente distorta (il valore aspettato di R  k  è inferiore al valor vero di un fattore proprietà b). N . Ciò perché il calcolo è molto pesante (abbiamo N 2 / 2 moltiplicazioni ed addizioni).20) e (6. (3. a parte il caso in cui siamo interessati solo a un piccolo sottoinsieme dei ritardi k.21) gode della N k Spesso nell’analisi dei segnali si usa la tecnica di moltiplicare i dati per una “finestra”.23) yk  i  a  k i  bi e si vede quindi che la (6. Per eseguire questa procedura ci si avvale della trasformata di Fourier (per i dettagli. essendo X    la trasformata di Fourier della successione x. Le procedure (6.21) sono usate raramente. Consideriamo la successione infinita  xi  composta da tutti 0.22) è la convoluzione tra la x invertita temporalmente e la coniugata della x. vedi paragrafo 3. 173 .

Per i processi discreti. (5. possiamo costruire un processo stocastico che la abbia come spettro di potenza. è reale e non-negativo. a singolo valore. Perciò la potenza del segnale (6. ricordiamo che per avere lo spettro nelle unità “fisiche”. 2  è data da (6.27) S '    S     t Se il segnale è reale. S '   non è pari e bisogna distinguere tra frequenze positive e 2 negative e quindi nella banda di frequenza  1 .6.26) S   i   R i   e   j i essendo  la pulsazione normalizzata.3. lo spettro è una funzione pari. 2  è data da 2 1  S '  2  d 1 è diverso da  2  S '  2  d . date le proprietà dell’autocorrelazione. Nel caso stazionario si ha (6.     t .60)) (6.17). Se inoltre il processo è reale. Mentre l’autocorrelazione deve avere le proprietà (“complicate”) indicate in 6. abbiamo (eq. lo spettro ha l’unica limitazione di essere positivo (o meglio non negativo). la potenza del segnale nella banda di frequenza  1 .25) S ( )     R( )  e  j d  e.4 Spettro di potenza Lo spettro di potenza è definito come la trasformata di Fourier dell’autocorrelazione (vedi eq.28) 2   S '  2  d 1 2 Il fattore 2 deriva dal fatto che per segnali reali non c’è differenza tra frequenze positive e negative. Si noti che le proprietà dello spettro e dell’autocorrelazione sono analoghe a quelle della densità di probabilità e della funzione caratteristica.29) 1  S '  2  d 174 . Se il segnale è complesso. e (6. In genere comunque data una funzione non negativa di  . (5.

quando i segnali sono sempre reali e non interessano molto le questioni teoriche. essa infatti è computazionalmente molto pesante. Vediamo tre problemi dello stimatore (6. 6.31) x1 . ad Einstein in una forma un po’ diversa) stabiliva che la stessa informazione si aveva facendo la trasformata di Fourier dell’autocorrelazione..20). cioè lo stimatore non distorto con la finestra di Bartlett applicata e farne la trasformata di Fourier.. x2 .1 Stimatori spettrali non parametrici Un modo per stimare lo spettro è quello di stimare l’autocorrelazione con lo stimatore (6.4. avremmo una stima spettrale più “scomoda”. Scompare così lo “scomodo” fattore 2 della (6. precedentemente.32) S    X   t  N 2  t Lo spettro (e la sua stima) è una grandezza statistica: da esso ovviamente non possono ricavarsi i dati originari e ciò perché si è persa l’informazione di fase delle componenti armoniche.31): 27 In effetti in passato la (6.. La trasformata (6.60).Vogliamo notare che spesso nella fisica sperimentale e nella tecnica.30) La stima spettrale è data da (6. Questo viene chiamato spettro unilatero. con le sole frequenze positive e con un valore doppio di quello ottenuto da (5. Questa procedura tuttavia non è usata quasi mai. per certe frequenze.28). con errori più grandi e. Se si vogliono usare le frequenze “fisiche”. ricordiamo che     t e (6. con tempo di campionamento t . (Se si usasse la stima (6.30) viene eseguita in modo veloce con la FFT. xN  . con valori negativi. La ripetiamo: Siano dati N campioni successivi dati discreti) (6.21).. Lo stesso risultato lo si ottiene usando la procedura usata per il calcolo veloce dell’autocorrelazione (escludendo la trasformata inversa). si usa una diversa definizione di spettro. 175 .31) definiva lo spettro di potenza e il teorema di Wiener-Kinchin (noto già. Se ne faccia la trasformata di Fourier (per X      xi  e ji 1 i 1 N S   X  N 2 È questa una conseguenza del teorema di Wiener-Kinchin27. Vediamo ora come stimare lo spettro di potenza. Ciò è dovuto al grosso peso che hanno le fluttuazioni sui valori estremali).

Una finestra molto usata è la finestra che prende il nome da Von Hann29 (detta anche hanning window) è la seguente 28 La presenza di questa finestra sui dati temporali implica la finestra di Bartlett sull’autocorrelazione: l’autocorrelazione di una funzione rettangolare è una funzione triangolare isoscele. 29 Julius Von Hann (1839-1921). Questo può essere visto come il prodotto della successione infinita per una finestra “rettangolare” (boxcar in Inglese)28 (6.86) (in effetti la risposta in fase è diversa). dipende dalla lunghezza del pezzo di dati. Si riduce il problema usando una finestra non rettangolare. Questo smussamento può essere particolarmente fastidioso (se si vuole stimare spettri con rapide variazioni). Se abbiamo N campioni.  Problema del finestramento La stima è fatta su un pezzo di dati non infinito (come dovrebbe essere in teoria).35) S    w  x e i 1 i i N i 1 N  j  i 1 2 w 2 i La successione wi  è la “finestra”.33)   1 N  t Discuteremo meglio questo argomento quando avremo introdotto il concetto di finestra. convenzionalmente. in unità della frequenza fisica. è simmetrica e si riduce agli estremi. metereologo austriaco. Lo stimatore è quindi così costruito: (6. Blackmann e Tukey hanno dato il suo nome a questa finestra.31) “smussa” lo spettro vero: cioè è come se ci si passasse sopra un passa basso simile a quello di equazione (3. In genere vale 1 (il valore massimo) per i valori centrali. (6. quindi la stima spettrale data dalla (6. 176 . notiamo che la risoluzione in frequenza della stima spettrale. ma di lunghezza finita.34) 1per 1  i  N wi   0altrove Ora sappiamo che la trasformata di Fourier del prodotto di due funzioni è pari alla convoluzione delle trasformate delle due funzioni. La risoluzione spettrale Per come è costruita la stima spettrale. essa è.

31)): Figura 6-4 177 . cioè’ usando semplicemente la (6.1.36)  2   i  N / 2   1  cos   N   wi  2 Ecco la finestra di Von Hann normalizzata per w i 1 N 2 i (100000 punti): Figura 6-3 Vediamo ora l’effetto della finestra. Nel grafico sono riportate le stime spettrali per il caso di una sinusoide di frequenza 0.(6. eseguite con la finestra di hanning e con la finestra rettangolare (o “boxcar”.

Lo spettro “ideale” del segnale sarebbe una delta a frequenza 0. Nella figura seguente rappresentiamo le stime spettrali con le due finestre di un segnale composto di due sinusoidi (una 100 volte più piccola dell’altra) Figura 6-5 Si nota che i lobi laterali della finestra rettangolare nascondono completamente il picco più piccolo. Un ultimo esempio: la finestra triangolare (confrontata con quella di hanning) 178 . ma questo in genere non è un problema. perfettamente visibile invece con la finestra di Von Hann. Sono state studiate numerose finestre. infatti se occorre una migliore risoluzione basta prendere un pezzo più lungo di dati). ma ha ridotto di parecchio l’ampiezza dei lobi laterali.1. Quale utilizzare dipende dal tipo di dati che si hanno. In effetti invece vediamo un picco con dei lobi laterali (artefatti causati dalla finestratura dei dati). con proprietà diverse. Notiamo che l’aver introdotto la finestra di Von Hann ha ridotto la risoluzione (di circa un fattore 2.

una delta spettrale. definizioni migliori per la risoluzione possono farsi. Questo non è approssimativamente che il modulo quadro della trasformata di Fourier della finestra (a parte una costante moltiplicativa e una traslazione). Se prendiamo il segnale di più alta risoluzione possibile nello spettro. per esempio. cioè una sinusoide nel tempo.37) S w    k  S    W   2 dove k è una costante di normalizzazione. il valore aspettato dello spettro “finestrato” è (6. che spesso è una “finestra involontaria”) significa “smussare” lo spettro col modulo quadro della trasformata di Fourier della finestra. possiamo definire la risoluzione come la larghezza con cui è visto questo segnale (per esempio la larghezza a mezza altezza. Infine torniamo al concetto di risoluzione: introdurre una finestra (anche la rettangolare. per le finestre rettangolare e hanning 179 . ma c’è una risoluzione (ed un’ampiezza di picco) leggermente migliore. in scala logaritmica. conoscendo il rapporto segnale-rumore). Ecco il grafico. Se lo spettro è S   e se la finestra w(t) ha trasformata di Fourier W   . I lobi poi hanno una larghezza doppia.Figura 6-6 Si noti che i lobi laterali sono più ampi.

Figura 6-7 ed ecco lo stesso grafico in scala lineare Figura 6-8 Da questo vediamo che la risoluzione (col metodo della larghezza a mezza altezza) è circa 1.5 volte peggiore nell’hanning. 180 .

a parte un coefficiente di normalizzazione. soprattutto.31) o di quello (6. è la distribuzione del  con 2 gradi di libertà (vedi (2. Lo stesso può dirsi dell’altra sommatoria con i seni. Per semplicità usiamo lo stimatore (6. Poi. Per evidenziare la cosa. poiché per la stima dello spettro. e. cioè un rumore bianco con densità spettrale S     1 . Incertezza della stima Un problema dello stimatore (6. X    è una variabile casuale 2 ottenuta dalla somma dei quadrati di due variabili gaussiane: ha quindi distribuzione esponenziale30. La probabilità di avere 30 2 valori superiori di x è P  e  x  . (Ricordiamo che ci aspetteremmo semplicemente 1). abbiamo che la distribuzione dei valori dello spettro è esponenziale con media 1.35) è che l’incertezza della stima è molto elevata. numeri casuali xi  cos   i  1   che hanno media 0 e varianza Ecco un pezzo dello spettro di questo genere La distribuzione esponenziale. supponiamo che il nostro segnale sia una successione correlata di campioni gaussiani normalizzati. La trasformata di Fourier è data da (6. con valore aspettato N. non si riduce con l’aumentare della lunghezza del pezzo di dati. (Vedi pagina 43) 181 . il modulo quadro della trasformata di Fourier va divisa per N. Per il teorema del limite 2 centrale quindi il valore della sommatoria è una variabile normale con media nulla e varianza 2 N .93). Per ogni valore di  abbiamo la somma di N i 1 i N 1 .31). In essa la deviazione standard è uguale al valore aspettato.38) X      xi  e ji 1   xi  cos   i  1     j   xi  sin   i  1    i 1 i 1 i 1 N N N Consideriamo il pezzo  x  cos  i  1    .

Figura 6-9 Si noti che ci aspetteremmo una linea costante a 1 (linea rossa). L’istogramma delle ampiezze spettrali è Figura 6-10 182 .

39) S   1 M  M k 1  wi  xik 1N  e ji1 i 1 N 2 w i 1 N 2 i La scelta di M (il numero di pezzi) si fa mediando tra la necessità di una buona risoluzione e quella di una bassa incertezza.Si noti che la distribuzione è esponenziale (una retta in plot semilog). Per ridurre quindi le fluttuazioni. per CR=3 abbiamo P  x  4   e4  0. Col numero dei campioni invece aumenta il numero di punti indipendenti dello spettro (la risoluzione). Nell’ipotesi che abbiamo fatto in precedenza. 183 . Attenzione ! la situazione non cambia minimamente con l’aumentare del numero di campioni.31) o (6. lo stimatore più generale è quindi (6. Avendo a disposizione un pezzo di M  N campioni. possiamo operare in due modi: smussare la stima spettrale con un opportuno filtro passa-basso ricavare varie stime spettrali del tipo (6. 31 Ricordiamo che il rapporto critico (critical ratio) è definito come CR  x  . cioè valori di probabilità elevate anche per alti rapporti critici31. Ecco il grafico di un pezzo di spettro stimato con finestra rettangolare ed M=10. Notiamo inoltre che la distribuzione esponenziale ha code abbastanza pesanti.0183 . la distribuzione aspettata è una distribuzione del  2 normalizzata (a valore aspettato 1) con 2M gradi di libertà. Quest’ultima è la procedura più usata (in genere è più comodo fare FFT più corte). di rumore bianco e finestra rettangolare. Per esempio.35) da pezzi di dati indipendenti e farne la media.

Figura 6-11 ed ecco l’istogramma Figura 6-12 184 .

Ed ecco con M=100: Figura 6-13 e la distribuzione è Figura 6-14 185 .

Nel caso di finestrature non rettangolari. Infatti le parti iniziali e finali di ciascun pezzo contribuiscono molto poco al valore spettrale: l’interallacciamento (per esempio a metà) fa sì che tutti i dati siano considerati. è ragionevole che i pezzi siano interallacciati. 186 .

 wn  yi n Ora moltiplichiamo il membro a destra e a sinistra per yi k . a seconda di come viene eseguita la stima dell’autocorrelazione o risolto il sistema (6. Poiché Rxy  k   0 per k > 0. e prendiamone il valore aspettato. La matrice simmetrica che compare viene detta matrice di Toeplitz e il sistema viene risolto con l’efficiente algoritmo di Levinson e Durbin. perche’ presuppone un andamento asintotico esponenziale dell’autocorrelazione. prendendo tutti i 1  k  n e indicando rk  Ryy  k  .. Con esse si possono ricavare i coefficienti del modello AR dai valori dell’autocorrelazione. al posto dei valori dell’autocorrelazione. possiamo stimare i valori dei parametri wi del modello AR(n).6. quindi calcolare lo spettro di potenza del modello con quei parametri. delle loro stime. abbiamo (6. Da questi lo spettro viene stimato (vedi (3.4.42) mettiamo.40) yi  b0  xi  w1  yi 1  w2  yi 2 . che corrisponde alla massima entropia..  wn  Ryy  k  n  e. 187 .42)  r0  r  1    rn 1 r1 r0 rn 2 rn 1   w1   r1  rn 2   w2   r2                 r0   wn   rn  Queste sono le equazioni di Yule e Walker.42)..43) 2 S y      x  F  e j   2 2 b02   x 1   wk  e k 1 n 2  j k Questo tipo di stima spettrale viene implementata in vari modi. b) non ha un numero troppo elevato di parametri. si ha (6. con k > 0. Facciamo un esempio: .2 Stimatori spettrali parametrici Un modo alternativo di stimare lo spettro di potenza di un segnale è scegliere un modello che riteniamo adeguato e stimarne i parametri. detto anche “a massima entropia”.. Uno dei modelli più usati è il modello AR.60)) come (6. Gli stimatori spettrali parametrici sono particolarmente buoni ed efficienti se il modello usato è a) aderente ai dati. Se nelle (6.riteniamo che un certo segnale che stiamo misurando sia adeguatamente modellizzato da un processo AR di un certo ordine: (6.41) Ryy  k   w1  Ryy  k  1  w2  Ryy  k  2 .

188 .

yN  (6. Nel caso di processi ergodici. Una funzione di autocorrelazione non ha le simmetrie e limitazioni di forma dell’autocorrelazione..45) Una diversa stima è (6. o tramite l’uso del teorema di WienerKhinchin...6. questa può' ottenersi come trasformata di Fourier di una stima della cross-correlazione. per esempio nel modo seguente..46) R xy  k   1 N k N k i 1 x ik  yi* R xy  k   1 N N k i 1 x ik  yi* Per quanto riguarda la stima del cross-spettro.. 189 . possiamo stimare la RXY   sostituendo il valore aspettato della (6... Così il cross-spettro può assumere valori negativi o anche complessi. xN  e  y1 . y2 . indicata in genere con S xy   .5 Cross-correlazione e cross-spettro La correlazione incrociata (o cross-correlazione o anche intercorrelazione) tra due processi stocastici stazionari X e Y è data da (6. è detta cross-spettro o spettro incrociato di potenza. Si calcola quindi  N   N   wi  xi k 1N  e ji1     wi  yi*k 1N  e ji1    i 1   i 1  (6.47) S xy     1 M  M k 1 w i 1 N 2 i La scelta di M (il numero di pezzi) si fa mediando tra la necessità di una buona risoluzione e quella di una bassa incertezza. x2 . Si dividono i dati disponibili per ciascun processo in M pezzi di N dati.. si può eseguire una stima di RXY   con Data l’ipotesi di ergodicità.44) RXY    E  X  t     Y *  t    La trasformata di Fourier di RXY   .44) con la media su due pezzi di dati  x1 .

come la cross-correlazione. Per M=1 la (6.6.6 Coerenza Lo spettro di potenza incrociato.49) C xy     S xy    S x   S y  Attenzione però. La coerenza (coherence) è una forma normalizzata del cross-spettro.39). La possiamo definire32 come (6. 190 .49) dà 1. con un valore di M abbastanza elevato. è una misura della similarità di due processi.48) Cxy     S xy    Sx    S y   La stima della coerenza si fa con (6. 32 Talvolta la coerenza viene definite come il quadrate della presente definizione.47) e la (6. Le stime vanno fatte con equazioni come la (6.

7 Filtraggio e trasformazione dei dati 7. ma possiamo osservare y(t) che   contiene una trasformazione x’ di x contiene addizionato un altro segnale non desiderato Supporremo che la trasformazione del segnale x sia lineare e descritta da un sistema F. dall’equazione (7. rapporto segnale/rumore Il tipico problema di misura è il seguente: Siamo interessati a stimare un segnale x(t) (o la sua trasformata X   ). La situazione è descritta.1 Segnali e rumori. nel dominio trasformato. e che il segnale non desiderato aggiuntivo (che chiamiamo rumore) sia un processo gaussiano descritto da uno spettro (7.2) Y     X     F    S0  N   Mostriamo lo schema di questo processo X F X’ Y S0 N Figura 7-1 Sn  ω  191 .1) S n     S0  N    2 dove S0 è una costante e N è uno degli infiniti sistemi che risolvono l’equazione (7.1).

Definiremo tale grandezza rapporto segnale/rumore di potenza (power SNR) 34 Ovviamente non basta ridurre il rumore: ciò si avrebbe. Più complessa (e praticamente interessante) è il caso in cui il rumore non sia trascurabile. semplicemente moltiplicando i dati per una costante piccola. ciò che conta sono le probabilità.. 33 Talora si usa come SNR il rapporto delle varianze. il segnale x(t) è un processo stocastico di cui vogliamo stimare uno o più parametri (per esempio il valor medio e/o la varianza). Altrimenti il SNR non è un buon indice. In questo caso possiamo definire SNR il rapporto tra la deviazione standard del segnale e quella del rumore33 (7. Distinguiamo tre casi particolarmente interessanti: 1. per esempio. In tal caso si definisce rapporto segnale/rumore (SNR – signal-to-noise ratio) il rapporto tra il massimo del segnale x e la deviazione standard del rumore (7. per esempio di avere un falso segnale o di avere un certo errore di stima o di farsi “sfuggire” segnali non abbastanza ampi. ma ridurre il rumore non sacrificando l’ampiezza del segnale.Nell’ipotesi che il rumore non esista (o sia trascurabile) il problema si riduce a trovare il sistema inverso di F (se questo è invertibile) o una sua buona approssimazione.3) x  t  t0   A  w  t  e va individuata la sua presenza.4) SNR  max  x  t   n 2. 192 . cioè il quadrato di questa quantità.5) SNR  x n 3. Ciò però ha senso se la distribuzione del rumore rimane la stessa dopo la stima (per esempio è e rimane gaussiana). il segnale x(t) è un processo stocastico che vogliamo stimare. e stimati il tempo di occorrenza t0 e l’ampiezza A. Questo è il problema della rivelazione (detection) . Problemi come questi si risolvono con la costruzione di particolari sistemi detti filtri. L’SNR può essere in questo caso l’incertezza relativa (quando questa ha senso). In tutti questi casi ci interessa di ridurre l’effetto del rumore. Un altro modo di dire ciò è “aumentare il rapporto segnale/rumore”34. il segnale x(t) ha una forma nota. con particolari caratteristiche. In questo caso ci interessa l’incertezza sulla stima del parametro. Vedremo in questo capitolo come calcolare i migliori filtri per un dato scopo e come realizzarli praticamente. (7.

Possiamo scrivere ciò in forma discretizzata (7. quindi gli  i sono campioni gaussiani con spettro Sn     2 .7) dove   t  è il rumore.9) k  w  2 k 1 7. Supponiamo inoltre che F=1. yi    i 1 2    e   yi  Awi 2 2 2  193 . Ovviamente per definire la forma w abbiamo infinite scelte (ognuna con una diversa ampiezza).1 e cioè il caso in cui il segnale x(t) ha una forma nota w(t). Possiamo scrivere la verosimiglianza ad un dato istante (per semplicità di notazione abbiamo scelto l’istante 0) come (7.7.2 Il filtro adattato Tratteremo qui il primo caso elencato nel paragrafo 7. scegliamo quella che “normalizza” l’energia (7.6) x  t  t0   A  w  t  e va individuata la sua presenza. per cui (7. La soluzione di questo problema viene chiamata filtro adattato (matched filter)..2. cioè x’=x. (7. Cerchiamo il filtro migliore con la tecnica della massima verosimiglianza. ma non viceversa (l’ottimizzazione dell’SNR lascia libero un parametro di ampiezza). Si noti che ottimizzare la stima di A significa anche ottimizzare il rapporto segnale/rumore.1 Caso del rumore bianco Supponiamo ora che il rumore sia bianco.8) y  t   A  w  t  t0     t  yi  A  wi i0   i e discutere direttamente questo caso.10) L  A. e stimati il tempo di occorrenza t0 e l’ampiezza A.

16) Ai  k  y  ik  wk  A  k  w  i  k i0  wk  A  Rw  i  i0  Rw  l  è l’autocorrelazione del segnale wi . come in effetti è.13) Ai  yi  w k  k    yi k  wk  k    A w  i  k i0   i k  wk  Cioè la stima di A è la cross-correlazione dei dati y per la forma del segnale w.14) stazionario con varianza (7. yi    i  y  A  wi   i 2 2 2 Eguagliando la derivata a 0 e sostituendo A per A. Se non è presente alcun segnale.15) i  k  w  k ik 2   2   wk2   2 k   Se ci fosse solo il segnale. definita come 194 . ci aspettavamo che la soluzione sarebbe stata un filtro lineare. avremo in uscita un nuovo rumore (7.12)  y w A   y w w i i i i 2 i i i i quindi (7. Poiché il problema è gaussiano (le statistiche coinvolte sono per ipotesi tutte normali).11) l  A. avremmo (7. si ha  A w   y  w i 2 i i i i (7.e prendendone il logaritmo ed ignorandone la parte costante abbiamo (7.

con trasformata V.18) V     Y    W *   Possiamo vederne lo schema: A  A W W filtro adattato W* Y V S S0 Figura 7-2 Nel nodo somma vediamo la somma del segnale w (quando e se presente la delta all’ingresso di W) e del rumore bianco di densità spettrale S . Se i segnali w sono rari (o assenti). vediamo cosa succede sul segnale. Vediamo la soluzione nel dominio della frequenza. Abbiamo (7. dove B è una qualsiasi costante. allora possiamo fare la correlazione tra i dati e B  wk .19) Sw    S  W 2 e autocorrelazione pari all’autocorrelazione del segnale w moltiplicato per  2 . avrà quindi spettro (7. e avremo lo stesso risultato. Indichiamo l’uscita del filtro adattato con vi  . C’e stato miglioramento di SNR ? Dato che la varianza del rumore è la stessa prima e dopo.(7. Ma porre B=1 semplifica la valutazione dell’ampiezza del segnale. vi  è la risposta del filtro adattato al rumore bianco.17) Rw  l   k  w  l k  wk  wk  w k Se vogliamo un filtro che massimizzi il SNR. Questa è un’interessante proprietà del filtro adattato. Prima il massimo valore era 195 .

24) 2    P  E  A   fi  yi   i      Poniamo nella (7. L’errore da minimizzare sarà (7.si voglia stimare.20) dopo diventa (7.12). E il guadagno del filtro è (7.22) G 1 max  wi  7.2. che giunge allo stesso risultato (7. cioè (7. max  wi   1 (l’eguaglianza si ha se wi è una delta).21) Max pre  A  max  wi  Max post  A Ora è evidente che.23) A   wi  bi     bi 2 i i 2 Per la disuguaglianza di Schwartz (vedi (2. Un altro modo di calcolare il filtro adattato. è il seguente: . 196 . Il rumore gaussiano bianco aggiunto può essere visto come un errore gaussiano additivo. il massimo si ha se bi  wi (di cui bi  wi è un caso particolare).24) fi  wi  ai . ricordando la (7. vediamo altre metodologie di calcolo. col metodo dei minimi quadrati. Si voglia massimizzare il SNR con un filtro lineare.9). Sia questo filtro B definito da una risposta impulsiva (non necessariamente causale) ai  . La stima sarà lineare per la gaussianità (e potremo indicare lo stimatore con il filtro F di risposta impulsiva  fi  ). per la (7. Abbiamo.9).2 Altre dimostrazioni Dato il grande interesse pratico e teorico del filtro adattato.140).(7. l’ampiezza A di un impulso  A  wi  .

Poiché la nostra soluzione ottima dà un filtro lineare. come avevamo trovato con le altre ipotesi. mostriamo lo schema delle operazioni: 35 Si deve supporre che il filtro sbiancante sia realizzabile (e stabile). Nella nostra ipotesi di rumore gaussiano stazionario. se vogliamo minimizzare P. ricordando che le  i sono scorrelate e E  i2    2 . ciò è sempre possibile. il primo termine in parentesi. Quindi. 7. 197 .25) 2    2 E  A  A   wi  A   wi ai   wi i    i ai    i i i i      2    E  A   wi ai   wi i    i ai   i i i      Ora.   2      E    wi  ai   i     2     wi2  ai2   2   wi  ai   i    i   i   (7. si deve annullare. Per chiarire la situazione.26) wa i i i (ortogonalità di w e a ) . attenzione però perché il nuovo filtro andrà adattato al segnale modificato dallo sbiancante.27)   2    wi2  ai2  i da cui deve essere ai  0 per tutti gli i e quindi fi  wi . che dipende da A che può' essere grande a piacere. quindi deve essere (7. possiamo “sbiancare” il rumore (e quindi modificare di conseguenza il segnale) e applicare a ciò il metodo appena applicato35.2.3 Caso generale Vediamo ora cosa possiamo fare nel caso in cui il rumore non è bianco.2    P  E  A    wi  ai    A  wi   i     i      (7.

per semplicità supporremo S0  1Hz 1 (l’ampiezza viene così conglobata in N). una volta in modo “causale” (dal passato al futuro) e una volta in modo anti-causale (dal futuro al passato.29) V    W   2 S   Questa è sempre reale positiva e quindi la sua anti-trasformata è una funzione hermitiana. abbiamo (7. S0 è essenziale per motivi di dimensioni fisiche. nel dominio della frequenza. possiamo porre S0  1 . nel dominio della frequenza. se usiamo le frequenze normalizzate (cioè quando usiamo la variabile pulsazione normalizzata  definita in (3. quando il filtro applicato nel dominio della frequenza è N * ): ciò rende nullo qualsiasi sfasamento che N da solo possa introdurre. Se il segnale e il rumore sono reali.28) V    Y    W *   N   2 W *    Y    S   Si noti che il filtro “sbiancante” (whitening filter) N è applicato due volte. all’uscita abbiamo un rumore che ha spettro (7. In formule. se usiamo le misure fisiche. è data da (7. La risposta al segnale.41)). è anche una funzione pari.A  A W adattato generalizzato sbiancante adattato W S0 N S  ω  Y 1 N W* N* Figura 7-3 Se lavoriamo con le frequenze fisiche.30) W   W *   Sv    S0  *  S0  N   S   2 2 Si noti che. Se invece c’è solo rumore. 198 .

L’SNR dopo il filtro è (7.31) nel tempo è proporzionale all’autocorrelazione del rumore.31) Rk  F 1  W   2     S      In particolare è importante il valore R0 .29) è proporzionale allo spettro di potenza del rumore (7. e la risposta impulsiva (7.32) SNR  R0  S0  R0 R0 S0 199 .Per calcolare la risposta impulsiva nel tempo e l’autocorrelazione del rumore occorre calcolare (7. Un importante risultato è che la risposta impulsiva in frequenza (7.30). dove ha il massimo assoluto.

Con probabilità (7. Se poniamo una soglia  . ma questo dà un valore ad ogni istante di tempo.3 Teoria della rivelazione (Detection Theory) Abbiamo costruito il filtro adattato.7. Nella figura seguente è presentato un caso 200 .3. ovvero abbiamo un “falso allarme” (false alarm). quindi “mente” quasi sempre: infatti la sua stima è ragionevole solo quando il segnale è effettivamente presente. Se “alziamo” la soglia.0  dx il segnale non supererà la soglia (e quindi abbiamo indovinato) e con probabilità 1  P0 la soglia viene superata anche in assenza di segnale e quindi commettiamo un errore di primo tipo. Il segnale non è presente. Il segnale è presente. s  . La situazione è analoga a quella descritta nel paragrafo 2. Per poter “rivelare” (to detect in Inglese) effettivamente segnali. possiamo ridurre la probabilità di errori del primo tipo. la decisione viene presa sulla base dell’ampiezza dell’uscita del filtro adattato: .decidiamo che ci sia un segnale del tipo cercato se la vi  ha un massimo relativo e supera una data soglia. in tal caso commettiamo un errore di secondo tipo.34) Ps   f  x. Con probabilità (7.10 sui test statistici. ovvero abbiamo un “falso rigetto” (false dismissal). cioè aumentiamo  . s   dx   il segnale supererà la soglia (e quindi abbiamo indovinato) e con probabilità 1  Ps la soglia non viene superata anche in presenza di segnale che quindi non viene rivelato. Nel caso del problema che abbiamo posto nel paragrafo 7.33) P0     f  x. dove s è l’ampiezza del segnale eventualmente presente. ma aumentando la probabilità di errori del secondo tipo.2. dobbiamo decidere quando il segnale è plausibilmente presente e quando invece no. abbiamo i due casi A. B. Supponiamo che l’uscita del filtro abbia una densità di probabilità f  x.

la probabilità di rivelazione Ps in funzione della probabilità di falso allarme 1  P0 . In questo caso il rumore è additivo (vedi in seguito l’equazione (7. per ogni valore dell’ampiezza del segnale. ma se il segnale s può assumere molti valori. per esempio.In questo grafico sono rappresentate le distribuzioni dell’uscita di un rivelatore (che potrebbe essere un filtro adattato).066807 1 Attenzione: spesso le ipotesi non sono due. Eccone un esempio.35)) e gaussiano. cioè se s è una variabile casuale (quindi. l’ipotesi A è in effetti molteplice. per rumore gaussiano additivo 201 . Poniamo la soglia a 5 ed abbiamo     probabilità di corretto “rigetto”: probabilità di falso allarme: probabilità di corretta rivelazione: probabilità di falso rigetto: P0  0. può prendere tutti i valori di un dato intervallo. delle curve che danno. che potrebbe anche non essere nota). di deviazione standard 2.933193 1 1  P  0.00621 P  0. Per rappresentare la situazione si usano spesso le Receiver Operating Characteristics (ROC). nell’ipotesi di assenza di segnale e nell’ipotesi in cui sia presente un segnale di ampiezza 8. al variare della soglia. secondo una data distribuzione di probabilità.99379 1  P0  0.

Se. il rumore è additivo.e. allora 202 . come accade di frequente. in scala semi-logaritmica.

basta confrontarne i parametri. Per esempio. O. se le f  x  sono gaussiane. se ci sono degli offset). basta confrontare le relative due f  x  . basta dare le due deviazioni standard (ed eventualmente i valori aspettati. ancora meglio.35) f  x.36) P  x    f    d   1  F  x  x  che indica la probabilità di falso allarme. dalla funzione (7. in tali casi la pletora delle ROC non è una buona scelta. Se vogliamo confrontare due rivelatori (detector) di segnali o due filtri applicati allo stesso rivelatore. Se le due f  x  sono dello stesso tipo. Se lo scopo è il confronto. 203 . s   f  x  s  e quindi tutto il processo è descritto soltanto da f  x  .(7.

37) Lo schema è il seguente yi  xi  ni I W X Y S0 N Figura 7-4 Sn  ω  Il segnale è modellizzato come l’uscita di un filtro lineare W con all’ingresso un segnale con le caratteristiche statistiche di un rumore bianco e che chiamiamo “processo di innovazione”.7. Cioè.39) porta a che sia 2 E  xi  xi      xi  k  y  i k  fk   204 .4 Filtro di Wiener Consideriamo ora il problema di stimare un segnale che è modellizzato da un processo stocastico stazionario gaussiano. la condizione di minimo sulla (7. (7. Dobbiamo costruire la stima ottima nel senso dei minimi quadrati.38) tale che (7.39) sia minimo. da dei dati in cui a tale segnale è aggiunto un rumore anch’esso gaussiano e stazionario. Per il principio di ortogonalità. nel discreto. cioè (7.

40) E  xi  xi  yk   0   ovvero     E  xi    xi l  ni l   fl    xk  nk    0 l       e. ricordando la stazionarietà di x e n e che x e n sono indipendenti e quindi scorrelati.(7. 205 . (7. troviamo. (7. il filtro si scrive (7. passando ai valori aspettati. dal nome del matematico americano Norbert Wiener. S x   è lo spettro di potenza del segnale e Sn   lo spettro di potenza del rumore.41) Rxx  k    fl   Rxx  l  k     fl   Rnn  l  k    0 l l Imponendo il minimo errore secondo i minimi quadrati. Il filtro W   è detto filtro di Wiener. nel dominio della frequenza.42) W    S x   S x    S y   Sn    S x   dove S y   è lo spettro di potenza dei dati. Nel caso più generale.43) W    S xy   S y   dove S xy   è lo spettro incrociato tra il processo x e i dati y.

Spesso tuttavia possono essere molto pesanti dal punto di vista computazionale. ma ci si deve accontentare approssimazioni. Infatti la funzione di trasferimento di un ritardo t è (7. Lo sfasamento introdotto dai filtri FIR può essere lineare con la frequenza.1 Filtri FIR I filtri FIR (Finite Impulsive Response) non sono che un altro nome dei sistemi MA (moving average) visti nel capitolo 3. 7. Dei sistemi discreti abbiamo parlato ampiamente. 7.5 Realizzazione di filtri Un filtro. 7.44) e quindi la fase è (7. Qui faremo alcune osservazioni sulla loro realizzazione. Spesso infatti possono esservi varie possibili implementazioni di uno stesso filtro. Ciò anche perché l’informazione sui segnali e sui rumori non sempre è completa. in genere. piccoli errori nel calcolo dei coefficienti (anche per arrotondamenti) possono dar luogo ad instabilità.5. AKA filtri AR) sono invece. ovvero applicare filtri con funzione di trasferimento reale. La caratteristica fondamentale è che questi filtri sono intrinsecamente stabili.3 Filtri a sfasamento nullo I filtri di tipo FIR o IIR sono causali e introducono inevitabilmente (a parte casi banali) uno sfasamento dipendente dalla frequenza.45) FD  j. non è altro che un sistema discreto.2 Filtri IIR I filtri IIR (Infinite Impulse Response. Talvolta è utile non introdurre sfasamenti.5. spesso buone.5. in pratica. meno pesanti computazionalmente (poiché spesso hanno pochi coefficienti) e sono più “naturali” per via della dipendenza a tutte le distanze. soprattutto tenendo presente che raramente si possono realizzare filtri “ottimi”. t   e jt     t 206 . come è lo sfasamento di un semplice ritardo. In certi casi.7.

con un numero di operazioni proporzionale a M  log M (invece che M 2 . come sarebbe con la convoluzione). e quindi in modo anti-causale. Vista nel dominio trasformato la situazione è la seguente: se il filtro applicato ha una funzione di trasferimento complessa F  j  . 2 7. Per eseguire una convoluzione di due “vettori”.4. Dobbiamo pero’:   dividere gli N dati in gruppi di lunghezza M (preferibilmente M deve essere una potenza di 2) trasformare i dati di ingresso al filtro e quindi anti-trasformare i dati di uscita. M volte più veloce). cioè dal futuro al passato. cioè dal passato al futuro. con un filtro ben adattato al rumore reale. se il filtro “causale” la sfasa di  . Ma attenzione ! ciascuno dei due filtri applica a quella frequenza un guadagno G . lungo N e uno.4 Filtri in frequenza Applicare un filtro FIR significa eseguire una convoluzione. il carico computazionale diventa elevatissimo. è far passare lo stesso filtro prima in modo causale.5. uno.46) yi  xi  2  xi 1  2  xi 2  xi 3 Questo ritardo è quasi sempre inessenziale e quindi si parla spesso di filtri a fase lineare come filtri a sfasamento nullo. in linea di principio. occorre eseguire M  N moltiplicazioni ed altrettante somme. quindi alla fine il guadagno è G 2 . Un modo per ottenere filtri a fase nulla. 36 Sono valori tipici per un giorno di dati di un’antenna gravitazionale. per esempio i seguenti due: yi  xi  2  xi 1  xi 2 (7. il pezzo di dati. quello anti-causale la sfasa di  e quindi alla fine lo sfasamento e nullo. il filtro FIR con M coefficienti. Cio’ che accade è che a ciascuna frequenza. applicato in modo anticausale la sua funzione di trasferimento diventa F *  j  e quindi il filtro effettivamente applicato dopo le due operazioni diventa F  j  . 207 . Se M ed N sono numeri abbastanza grandi (per esempio36 N  109 ed M  105 ).Ciò accade se i coefficienti del filtro FIR sono simmetrici rispetto a un valore. E cio’ può essere fatto con la FFT (vedi paragrafo 3.2). Spesso poi si devono applicare contemporaneamente migliaia di filtri. Ovviamente per far cio’ dobbiamo conoscere i “dati futuri” (cioè dobbiamo lavorare offline. Si può allora far uso del fatto che nel dominio trasformato di Fourier la convoluzione è una semplice moltiplicazione (quindi. quindi con un effettivo ritardo).

Ma attenzione ! La FFT. considera i dati periodici di periodo M. permette di realizzare facilmente filtri non-causali e/o a sfasamento nullo. il seguente:   si divide il pezzo di dati da analizzare in M-pezzi di lunghezza M interallacciati per la metà ogni M-pezzo viene utilizzato per analizzarne solo la metà centrale.Con M dell’ordine di 105 . la parte nulla è la centrale) 208 . e questo creerebbe gravissimi artefatti nel filtraggio. L’escamotage che si usa per questo problema è. Infatti con una FFT di lunghezza M. si guadagna un fattore circa 1000 nel numero delle operazioni elementari svolte. che è un modo veloce di calcolare la DFT. e quindi con metà dei coefficienti pari a zero (per filtri non-causali. in genere. Il fatto di lavorare “a pezzi” sui dati. si implementa un filtro FIR di lunghezza effettiva M/2 (tipicamente M/4 con indice negativo e M/4 con indice positivo).

Se ci sono grossi impulsi.Filtro a mediana Fin’ora abbiamo visto solo filtri lineari. ma di grande ampiezza. che dipende dall’ampiezza (purtroppo pero’ spesso cancellando la parte del segnale che è presente nello stesso periodo).2. possiamo fare una media mobile (o operare con un filtro AR. quindi se un campione è molto grande. o comunque continuo.6 I disturbi impulsivi . ma contiene dei disturbi localizzati (“burst” o impulsi) rari. La mediana è molto meno sensibile alla presenza di grossi impulsi rispetto alla media (che è un’operazione lineare). possiamo dividere i dati in intervalli e per ciascuno di questi calcolare la mediana. Spesso il rumore non è solo un processo gaussiano. Come la caratteristica del rumore che abbiamo considerato nei paragrafi 7.1). 209 . Questa procedura viene indicata come filtro a mediana. Nel caso di rumore stazionario continuo. e il valore d’uscita dipende linearmente dai valori dei singoli campioni. come in 3. Vediamo ora un’altra procedura non lineare per stimare il valor medio del segnale in presenza di rumore impulsivo. indipendentemente dall’ampiezza. I filtri lineari operano prendendo tutti i campioni del segnale.2 e 7. ha un peso grande sull’uscita. cosi’ nel caso di questi burst la caratteristica che li contraddistingue è l’ampiezza e quindi grazie a questo in parecchi casi possiamo eliminarli tramite un’opportuna procedura non lineare.7.4 era lo spettro e utilizzando questa conoscenza possiamo ridurne l’effetto.

8 Cenno alla trasformata wavelet 210 .

9 Cenni al caso di dati non stazionari 211 .

1 Analisi tempo-frequenza 212 .9.

9.2 Filtri adattivi 213 .

10 Cenni ai modelli non lineari 214 .

10.1 Filtri non lineari 215 .

in genere l’ipotesi di gaussianità cade e quindi diventano interessanti le statistiche di ordine superiore al secondo. 1 Queste simmetrie si riflettono sul bispettro. è la trasformata di Fourier del cumulante del terzo ordine di un processo stocastico stazionario (9.3) ABC 1 . 1 BAC  1 . come abbiamo visto in (5.1) Cxxx 1 . Il bispettro. 2 ACB 2 .2) Per segnali complessi invece c’è solo (9. 2 ACB 2 . 2   E  x*  t   x  t  1   x  t   2    Notiamo che in questo cumulante ci sono varie simmetrie. 2   1 BCA 2   1 . per segnali reali.  2 (9. 1   2 CBA 1   2 .10.2 Il bispettro Quando abbiamo a che fare con modelli non-lineari. Vediamo come si presenta il bispettro di una sinusoide: 216 . ABC 1 .34). e cioè.  1 CAB  2 .

ecco come appare il bispettro se si introduce una non-linearità che genera la terza armonica Figura 10-2 217 .Figura 10-1 Nei sistemi non lineari raramente sono presenti frequenze “pure”.

e nel caso che generi la seconda e la terza: Figura 10-3 Vediamo cosa accade per il bispettro di un esponenziale immaginario: 218 .

ma con distribuzione rispettivamente o o o o gaussiano esponenziale chi quadro con 10 gradi di libertà uniforme Lo spettro di questi quattro rumori è indistinguibile. Di seguito sono presentati i bispettri nel caso di rumore bianco.Figura 10-4 Particolarmente interessante è cio’ che accade con segnali casuali. mentre ecco come si presentano i 4 bispettri: 219 .

Gaussiano Figura 10-5 Esponenziale Figura 10-6 220 .

Chi quadro con 10 gradi di libertà Figura 10-7 Uniforme Figura 10-8 221 .

avendo posto segnali con la stessa potenza.002 Notiamo poi che mentre nel caso gaussiano e in quello uniforme abbiamo un pattern con variazioni rapide. nel caso dell’esponenziale e del  2 10  le variazioni sono più morbide.098 0.Per quanto riguarda il valore.038 0. Questo si evidenzia facendo lo spettro di potenza dell’immagine (vedi paragrafo 11. Ecco i risultati: Gaussiano Figura 10-9 222 . abbiamo il seguente risultato: Tipo di rumore bianco Gaussiano Esponenziale Chi quadro 10gdl Uniforme Media valore assoluto 0.2).210 0.

Esponenziale Figura 10-10 Chi Quadro (10) Figura 10-11 223 .

Uniforme Figura 10-12 Ed infine vediamo il bispettro di rumore esponenziale complesso Figura 10-13 224 .

225 .da cui si nota la riduzione della simmetri a bilatera.

rappresentiamo lo 0 (o il valore minimo) col nero e il valore massimo di nostro interesse col bianco. Possiamo però anche usare scale “colorate” differenti che talvolta possono risultare più comprensibili o più suggestive. ogni pixel ha un valore tra 0 e 63. Come avviene per i segnali temporali. Nella rappresentazione a scala di grigi.1) g  x. Nel primo caso in ogni punto la g(x. Eccone un esempio. la funzione g(x. y  Distinguiamo tra immagini in bianco e nero e a colori. Qui ci occuperemo solo di immagini in bianco e nero (anche se esistono modi di visualizzazione a colori di immagini in bianco e nero). Qui l’immagine è una foto37.y) è una funzione scalare.11 Cenno all’image processing 11. 37 226 . nel secondo a ciascun punto è associato un vettore a 3 dimensioni. La visualizzazione di una immagine può essere eseguita per esempio per scala di grigi. Non sempre è cosi’: per esempio un’immagine puo’ essere una rappresentazione tempo-frequenza di un segnale.2) gik Ogni elemento di questa matrice viene detto pixel.1 Immagini ed elaborazione delle immagini Un’immagine è descritta da una funzione di due variabili (10. cosi’ anche le immagini vengono discretizzate per essere “lette” e elaborate dai computer.y) diventa quindi una matrice (10.

in cui si trasforma opportunamente un’immagine.Figura 11-1 L’elaborazione delle immagini è un campo molto esteso. di evidenziare (o nascondere) certe caratteristiche38. 227 . 38 Il fine puo’ anche essere artistico. al fine. Distinguiamo tre tipi di elaborazione: o puntuale : ogni pixel viene modificato dipendentemente dal valore che ha o locale : ogni pixel viene modificato dipendentemente dal valore che hanno quelli vicini (anche non solo gli adiacenti) o globale : tutti i pixel vengono modificati nello stesso modo (per esempio sommando una costante) Facciamo un paio di esempi di elaborazione puntuale. per esempio.

o il negativo : g 'ik  max  gik   gik Figura 11-2 o alto contrasto : g 'ik  sign  gik    (dove  è una soglia) Figura 11-3 228 .

Ve diamo ora una tipica elaborazione “locale”: o “derivata” : a ogni pixel è sottratto quello che lo precede (per esempio verticalmente) Figura 11-4 229 .

5) G  u. y     d   d    Nel caso discreto si ha (10. (10.11. v   e 2   1   j u x  v y   dx  dy e.6) g  x.    i  k  g   ik  e  jik       G  . v   F  g  x .    b  x   . possiamo definire la trasformata di Fourier di una immagine g(x. perché ovviamente non è uno spettro di potenza (né di energia).    e   ji k    d  d  Possiamo definire l’analogo dello spettro di potenza come (10.8) gik  1 4 2 G  .y)=0 dove non esiste l’immagine). v    4   G u. y   F -1 G  u. Analogamente ai segnali temporali. nel caso discreto. y   e    j u x  v y   dx  dy (si suppone g(x.1) e (10.9) S  u. y       a  . Analogamente al caso dei segnali temporali. La sua inversa è (10.y) come (10. La differenza è che al posto dell’ascissa temporale (o dell’indice “temporale” nel caso dei segnali discreti).2 Elaborazione lineare delle immagini Le immagini possono essere elaborate in modo analogo ad i segnali. abbiamo due ascisse spaziali ortogonali (ovvero due indici discreti) (vedi (10.4) aik  bik  m  n   a   mn  bi m  k n  Elaborazioni di una immagine del tipo della convoluzione vengono dette elaborazioni lineari. y   b  x.3) a  x. possiamo introdurre l’operazione di convoluzione che nel continuo si definisce (10. chiamiamolo semplicemente spettro.2)).7) e la sua inversa (10. equivalentemente alla DFT. Per l’autocorrelazione abbiamo 230 . y        g  x. v  2 dove k è una costante. v   k  G  u.

v   Facciamo un esempio.    F -1  S  u.10) R  . Ecco l’immagine di un cerchio Figura 11-5 Ed ecco il logaritmo dello spettro Figura 11-6 231 .(10.

Costruiamo la seguente immagine Figura 11-8 232 .Si noti che questo “spettro” è indipendente dalla posizione del cerchio nella figura (anzi. Ed ecco l’autocorrelazione: Figura 11-7 Vediamo ora come migliorare il rapporto segnale rumore in una immagine. sul “toro” costruito unendo i due lati verticali e quindi i due orizzontali).

Ora sommiamo a questa immagine del “rumore”.Sono 5 cerchi uguali a quello precedente di cui abbiamo fatto lo spettro. Ecco il risultato avendo aggiunto rumore gaussiano con deviazione standard 4 volte maggiore: Figura 11-9 Ora costruiamo un semplice filtro cosi’ fatto: o si prende la trasformata di Fourier dell’immagine disturbata o si moltiplica per lo spettro del singolo cerchio o se ne fa la trasformata inversa Ed ecco il risultato: 233 . cioè a ciascun pixel una variabile normale. Se il rumore aggiunto è abbastanza “grande”. i cerchi scompariranno.

i cerchi sono ben visibili. Questo è un filtro piuttosto rozzo. anche se disturbati.Figura 11-10 Come si vede. cioè essendo M questa immagine e X l’immagine originale. nella posizione giusta. Possiamo fare il filtro adattato (del tutto analogo a quello nel caso dei segnali). eventualmente lavorando con le trasformate di Fourier. otteniamo 234 . prendendo un cerchio nell’origine Figura 11-11 e quindi usarlo come “filtro adattato” ed applicarlo all’immagine.

Da questa.(10.11) Otteniamo Y F 1 F  X   F  M *    Figura 11-12 dove. appaiono dei punti luminosi nei centri dei cerchi.12) ottenendo X ' F 1 F Y  Y   3   F  M   235 . come si vede. possiamo riottenere l’immagine originale con (10. se il rapporto segnale-rumore è abbastanza buoni.

13) X ' F 1 F Y   F  M    avremmo il risultato di Figura 11-10. Se si operasse in modo lineare. Notare che quest’ultima operazione è non-lineare.Figura 11-13 che è decisamente un buon risultato. e. se cioè si usasse (10. come spesso accade con i metodi non lineari. dà buoni risultati solo se il rapporto segnalerumore è abbastanza elevato. 236 .

3 La compressione JPEG 237 .11.

Si parla di periodicità coerente anche nel caso in cui vari l’ampiezza ma non la fase.5) 238 .4) Ogni periodo. Qui vogliamo mostrare alcuni dei modi in cui si presenta il problema. alcuni dei quali analizzeremo in questo capitolo. che tuttavia si possono accumulare nel tempo. Si ha. Innanzitutto individuiamo tre tipi di periodicità:  periodicità coerente. è quasi uguale al precedente. per cui x t   x t  T  (11. in questo caso. In tal caso x t   A t   x t  T t  (11.1 Introduzione al problema La ricerca e l’analisi di periodicità in un segnale sono un problema che si presenta di frequente.2) x t   x t  k T  dove k è qualsiasi intero. ma ci possono essere (in genere lievi) differenze di fase.  periodicità variabile.3)  2  t  x  t   A  t   sin    T  dove A  t  è una funzione positiva. Un esempio di periodicità non coerente è un processo AR del secondo ordine. di conseguenza (11. in genere “lentamente” (altrimenti viene meno l’idea di periodicità). per cui x t   x t  T  (11.12 Un’applicazione: la ricerca di periodicità 12.  periodicità non coerente. Per esempio nel caso di (11.1) dove T è il “periodo”. Per affrontarlo sono stati messi a punto decine di metodi di analisi. in genere “lenta” (cioè con frequenze basse rispetto a 1/T).

la forma d’onda.…) che tipo di dati abbiamo a disposizione con che precisione ci interessa il risultato quale è il rapporto segnale rumore     239 .dove A  t  e T  t  variano lentamente.2 cosa cerchiamo (per esempio l’ampiezza. a seconda di  cosa è noto (per esempio il periodo. il periodo e la fase. Se fosse noto tutto. teoricamente si potrebbe applicare il filtro adattato. ma raramente è ragionevole usare un filtro adattato per la ricerca di segnali periodici (almeno nella forma che abbiamo visto in 7.…). il periodo. la forma d’onda. A  t  e T  t  potrebbero essere note oppure potrebbe essere l’oggetto della ricerca I problemi di analisi poi variano. a parte l’ampiezza. il periodo e la fase.

come sappiamo. Se il segnale è descritto da (11. abbiamo nello spettro stimato con un singolo periodogramma (11. abbiamo (11. se sono trascurabili artefatti dell’analisi. Se facciamo la media di M periodogrammi (ciascuno lungo Tobs / M ). ignora la fase della periodicità  240 . di cui abbiamo parlato nel paragrafo 6.1. Il rumore in tal caso. È questo sicuramente lo strumento migliore per un’analisi esplorativa. cioè solo in casi particolari sono generati artefatti e gli errori di stima sono sotto controllo I problemi di questo strumento sono    è difficile applicarlo a tantissimi dati (una FFT oggi può essere fatta senza difficoltà fino a qualche milione di dati) non si osservano variazioni nel tempo la risoluzione in frequenza è limitata (nella definizione più banale è M / Tobs .4. ha spettro abbastanza piatto che vale S n (bilatero).2 Il periodogramma Lo strumento principale per analizzare le periodicità è la stima dello spettro di potenza tramite l’uso dei periodogrammi.12.7) SNR  A2  Tobs 4  Sn dove Tobs è il tempo di osservazione. è distribuito esponenzialmente. in effetti è in genere migliore di questo valore (se si usa FFT con soprarisoluzione).6) x  t   A  sin 0t    e il rumore. nei dintorni della frequenza del segnale. dipendentemente dal SNR.8) SNR  A2  Tobs 4  M  Sn I vantaggi di questo strumento sono   è molto veloce e si possono osservare molte periodicità contemporaneamente è affidabile.

  è uno strumento non molto adeguato per la ricerca di periodicità non sinusoidali non è molto adeguato per periodicità non coerenti (a meno che non si riduca la risoluzione) 241 .

4.2. Per la ricerca di periodicità. Permettono in genere migliori risoluzioni rispetto al periodogramma.3 Metodi parametrici Abbiamo accennato a questi metodi in 6.12. questi metodi sono adeguati in casi non molto complessi. 242 .

6). Qui noi indichiamo l’algoritmo utilizzato da questo amplificatore.11) A  y t  (attenzione ! è biasata per la presenza del rumore. 39 Con questo nome viene indicato un particolare amplificatore elettronico. Dal numero complesso y(t) ricaviamo la stima dell’ampiezza del segnale (11.12.4 Il lock-in Supponiamo di conoscere la frequenza di un segnale. Chiamiamo questa figura il “verme”. Dato un segnale x(t). il lock-in produce il seguente segnale complesso40 (11. Si può graficare la y(t) nel piano di Gauss.9) y t     x    e t  t   e j 2  T  d qui T è il periodo che si suppone noto e  è il “tempo d’integrazione”. detti “segnale in fase” e “segnale in quadratura”. 40 L’amplificatore elettronico produce due segnali separate. e dobbiamo stimarne l’ampiezza e la fase. la costante di tempo è scomparsa. (11. e  è il tempo scala della più rapida variazione osservabile. ciò il tempo scala delle eventuali variazioni. (11. nell’ipotesi di eq. e l’integrale si estende dall’inizio delle misure fino al tempo t. il bias va tolto quadraticamente) e la sua fase (11. Il rapporto segnale/rumore è. 243 . Una forma diversa di lock-in è la seguente t 2  T (11.12)   y  t  Si noti che entrambe le stime sono variabili nel tempo. Uno strumento per questo scopo è il lock-in39. per l’aspetto che assume nel caso di periodicità di periodo T. Noi li vedremo come un singolo segnale complesso.13) y  t    x    e 0 j  d Come si vede.10) SNR  A2  4  Sn e la distribuzione del modulo quadro del rumore è esponenziale.

Ciò può essere molto utile per vedere variazioni di frequenza. osservato a 100 Hz: Figura 12-1 e ecco cosa avviene se si “sintonizza” il verme a 100.1 Hz (sugli stessi dati) 244 . T Vediamo ora il “verme” per una realizzazione di un processo AR(2) con frequenza 100 Hz e Q=10000. Se la frequenza del segnale è 1 mediamente diversa da   . allora il “verme” gira intorno all’origine: dal numero di giri che T 1 compie (e dal verso) si deduce la differenza tra la frequenza “vera” e   .

Figura 12-2 245 .

Un altro esempio è il segnale delle pulsar: è questo un segnale periodico ed è di grande importanza conoscerne il profilo.12.5 L’analisi di fase Talora si conosce il periodo di un fenomeno. ma siamo interessati a come ne va l’ampiezza all’interno del periodo. sappiamo che questo è correlato con l’attività umana e quindi ha una periodicità giornaliera. Ecco alcuni diagrammi di fase per il segnale della pulsar della nebulosa del Granchio (Crab pulsar): Figura 12-3 Questo tipo di grafici si eseguono mediando in fase i vari periodi del segnale. 246 . Per esempio è questo il caso in cui siamo interessati al rumore di fondo in un laboratorio. ma vogliamo sapere come varia nelle varie ore del giorno.

14)  a  k 1 n  k  2  k  t   2  k  t    cos    bk  sin    T   T  cioè trovare i coefficienti ak e bk che meglio descrivono il segnale (per esempio secondo il criterio dei minimi quadrati). Se T è noto. Questo metodo. anche per n=1.12. e graficando l’inverso dell’errore quadratico medio. facendo così una specie di spettro.6 Il fit armonico Un altro metodo di analisi di periodicità non sinusoidali è il fit del segnale armonico con (11. si misurano in pratica le varie armoniche del diagramma di fase. Se T non è noto. Il segnale è quindi descritto da una 2n parametri. ha una migliore risoluzione rispetto al periodogramma (anche se è molto più costoso computazionalmente). È buona norma calcolare anche l’incertezza su questi parametri. in un range ragionevole. si può fare un’indagine con vari valori di T. 247 .

xN  ... In questo caso. x2 . In altri casi può essere utile un campionamento non uniforme per superare i limiti della frequenza di Nyquist..7 Il caso del campionamento non uniforme Talvolta i dati non sono campionati in modo uniforme: le osservazioni possono essere sporadiche (come per esempio può capitare in astronomia).15) 1 N S      xi  exp   ti  N k 1 2 Facciamo un esempio.. Tra queste compare 211 Hz. In tal caso è evidente che le condizioni del teorema del campionamento non sono soddisfatte per le due frequenze di 211 e 900 Hz (la frequenza di Nyquist è 50 Hz) e infatti ecco lo spettro: Figura 12-4 Si vedono varie frequenze aliasate più volte. se le osservazioni sono  x1 . Campioniamo un segnale di forma (11.16) x  t   sin  2  900  t   cos  2  211 t  consideriamo prima il caso di 100 campioni uniformi in un secondo. ma non 900 (che è aliasata a 0 perché è un multiplo pari della frequenza di Nyquist). una stima dello spettro di potenza è (11.12. 248 .

249 .Ed ecco invece lo spettro ottenuto con la (11. Se i tempi di campionamento hanno delle periodicità. avendo preso 100 istanti di campionamento a caso (distribuzione uniforme) in un secondo Figura 12-5 Come si vede. queste si riflettono su S   . le due frequenze compaiono al valore giusto (anche se c’è un fondo casuale che è facile dimostrare aver distribuzione esponenziale con valore aspettato uguale alla varianza del segnale).15).

ottenendo un’autocorrelazione complessa “analitica” dedurre la sua frequenza (ci sono vari modi.8 Periodicità non coerenti Se si ha una periodicità non coerente.12. il modello più semplice è quello di un processo gaussiano del secondo ordine (nel discreto. In tal caso ci sono 4 parametri da stimare:     la frequenza il tempo di decadimento  la varianza il rumore di fondo su cui è “seduto” il picco spettrale Un modo per far ciò è:      estrarre il pezzo di spettro che contiene il picco aggiungere una seconda parte di eguale lunghezza e porla eguale a 0 antitrasformare questo spettro sintetico. per esempio contare il numero di giri nel piano di Gauss) e da questa sommata alla frequenza iniziale del pezzo ricavare la frequenza cercata dall’inviluppo (semplicemente il valore assoluto) dell’autocorrelazione vicino a 0 ricavare il rumore di fondo (dal picchetto ripido vicino a 0). il tau (dalla pendenza della discesa “lenta”) e la varianza (l’estrapolazione a 0 della discesa “lenta”). un AR(2)). 250 .

È questo uno dei casi a cui fa riferimento l’equazione (5. eccetera. 251 . Di questi non è di interesse la forma o l’ampiezza. se gli impulsi hanno densità uniforme S   ha distribuzione esponenziale con valore aspettato 1. A parte che a bassissime frequenze. Anche nel caso degli eventi possono farsi diagrammi di fase. ma solo il tempo di occorrenza.83).12. Essendo ti gli istanti di tempo in cui sono capitati gli impulsi.17)  ti  t1   ti .9 Periodicità di eventi Talvolta il problema è quello di trovare le periodicità di impulsi.17) 1 N S      exp   ti  N k 1 2 Onde evitare errori di arrotondamento è bene sostituire nella (11. Il modello è quello di un processo di Poisson con  variabile in modo periodico nel tempo. fit armonici. costruiamo in questo caso lo spettro impulsivo (11.

i=1:1000.13 Appendici Esercitazioni con Matlab Introduzione a Matlab Matlab è un software che comprende un linguaggio di programmazione di alto livello per problemi tecnici e scientifici e un ambiente interattivo per l’analisi e lo sviluppo di programmi (vedi figura).0001 alla variabile dt crea un vettore i con i numeri da 1 a 1000 moltiplica i valori di i per dt crea un vettore x con i valori del seno crea un grafico con t ascissa e x ordinata 252 . x=sin(2*pi*freq*t).0001. plot(t.x) assegna 50 alla variabile freq assegna 0. se nella finestra interattiva si digita (i “>>” sono il prompt) >> >> >> >> >> >> freq=50. Per esempio. t=dt*i. dt=0.

alle subroutine del Fortran e alle funzioni del C).5000 2.0000 . 253 1.” appare immediatamente il risultato: >> a=2*8 a = 16 >> i=1:0.0000 >> I comandi possono essere messi in file (con estensione .5:2 i = 1.m) che possono essere esguiti semplicemente digitando il nome del file (senza l’estensione).>> grid on >> appare la seguente finestra: aggiunge una griglia al grafico Si noti che se un’istruzione non viene terminata da un “. con qualche differenza. Possono mettersi in file anche “functions” (analoghe.

l’image processing e così via.cygwin.mathworks. le equazioni differenziali alle derivate parziali. Matlab è prodotto dalla MathWorks (http://www.org/) che però gira solo sotto Linux (si può usare sotto Windows usando Cygwin.octave. un istituto nazionale di ricerca francese Octave (http://www.com/) e nel sito sono disponibili ottimi manuali d’uso.Nell’ambiente interattivo è presente un esteso Help. I due migliori sono  Scilab (http://scilabsoft. l’analisi dei segnali.  254 . con la descrizione delle migliaia di funzioni interne e tutorial. Sono disponibili (con licenza a parte) numerosi toolbox per specifici ambiti applicativi (per esempio la statistica.fr/) sviluppato a partire dal 1990 dall’INRIA.com/). l’ambiente Linux-like di Windows sviluppato dalla Cygnus (http://www.inria. Esistono “cloni” gratuiti di Matlab.

per l’analisi dei dati e la simulazione dei dati delle antenne gravitazionali. 255 .Snag Snag è un toolbox di Matlab sviluppato presso il gruppo di ricerca sulle onde gravitazionali del dipartimento. Lo strumento interattivo basilare si invoca digitando al prompt snag e appare la finestra Per ulteriori dettagli si rimanda alle guide disponibili nel sito. È stato sviluppato tramite programmazione a oggetti e la classe più importante è il gd (gruppo dati).it/snag/default.infn. che descrive un insieme di dati.roma1. Può essere scaricato dal sito http://grwavsf.htm dove sono disponibili guide di uso e di programmazione. per ciascuno dei quali c’è un’ascissa (per esempio temporale) e un’ordinata. Comprende oltre 800 funzioni Matlab e alcuni strumenti grafici interattivi.

Questo è utile per i segnali. Alla partenza del programma viene creato nel folder temporaneo dell’utente un file di log SnagLab. DM: (Data Map: GD a due dimensioni) strutture dati con ascissa a due dimensioni (x.it/snaglab .standard data. creare una cartella (per es.y). Il GD a fuoco è in genere l’ultimo considerato. I dati del GD(0) possono essere spostati in altri GD. Alcune delle procedure di SnagLab sono specifiche dei DM. In ogni momento esiste un GD “a fuoco”. da cui si possono visualizzare.log con varie informazioni e parametri calcolati. in cui l’ascissa è virtuale. I DM sono trattati in modo analogo ai GD: c’è un DM manager. questi sono numerati. a seconda del tipo di dati: .roma1. è in sviluppo una versione in C#. a cui si accede dal GD manager.Uso di SnagLab (versione VB) Introduzione SnagLab è un programma orientato all’analisi dei dati sperimentali. SnagLab) e metterci l’eseguibile e tutti gli eventuali file di supporto (dll e ocx) che dovessero mancare al sistema. 256 . la dimensione y è sempre virtuale. su cui si opera automaticamente. come matrici o come mappe. Istallazione L’ultima versione del programma è scaricabile da grwavsf. Uso I GD I dati sono immagazzinati in strutture chiamate GD (gruppi dati). poiché si suppone che siano presi a tutti i multipli del tempo di campionamento.equal uncertainties. alcune possono applicarsi ai DM e ai GD. in cui ogni dato è caratterizzato da ascissa. ordinata e loro incertezze . La dimensione x può essere “reale” (campionamento non uniforme) o “virtuale” (campionamento uniforme) .infn. in ambiente Windows (Windows 98 e successivi).sampled data. La versione attuale è scritta in Visual Basic 6. Si può modificare il GD a fuoco 256ompatta su una casella del GD manager o modificando le apposite caselle in alcune finestre di dialogo. La finestra “GD manager” mostra lo stato dei GD. Esistono tre “gusti” di GD. in cui le incertezze sono le stesse per tutti i dati .Per istallarlo. I dati possono essere letti da file o immessi in modo interattivo. Altre strutture dati MD: (Multiple GD) strutture dati contenenti più GD con le stesse ascisse. a partire dal GD(0) che è il GD dove normalmente “entrano” i dati.

così composto: #UD <stringa di didascalia> <numero di dati> <x1> <dx1> <y1> <dy1> <act1> <x2> <dx2> <y2> <dy2> <act2> …….i tasti per accedere al GD manager. Input dei dati I dati possono essere immessi e modificati tramite l’interfaccia interattiva: occorre cliccare sulla griglia. (È in sviluppo un modo di input direttamente da griglia. se è “a fuoco” un GD non usato. ordinata e sua incertezza. così composto: #MD <numero ordinate (n)> <numero di dati> <incertezza ascissa> <incertezza ordinata> <stringa di didascalia ordinata (colonna) 1> <stringa di didascalia ordinata 2> …. le procedure si attivano 257ompattarl sopra.la finestra delle informazioni. per ogni punto. MD. alla posizione desiderata e modificare le caselle della pop-up window che appare. come i fit.UD. . Attualmente esistono tre formati diversi: . dove xn. così composto: #SD <stringa di didascalia> <numero di dati> <tempo iniziale> <tempo di campionamento> 257 - . sono più comodamente attivabili dall’apposito menu dei grafici. SD. Non tutte le procedure sono già attive. su più colonne. selezionabile dal set-up. <stringa di didascalia ordinata n> <x1> <y11> <y12> … <y1n> <x2> <y21> <y22> … <y2n> …………. per dati multipli. contiene un preview del GD “a fuoco”. quando ci sono GD in uso.l’albero delle procedure disponibili. una per un’ordinata diversa. yn e dyn sono ascissa. dxn. alla finestra di input standard dei dati e al Setup (anche il setup contiene alcune caratteristiche non ancora o non ancora bene implementate). .. act è una flag di attivazione che vale 1 o 0. viene visualizzato questo file. I dati possono essere scritti in file leggibili da SnagLab. I dati così prodotti sono salvabili su file. per dati standard con incertezze individuali. ma non è ancora consigliabile). Notare che i dati immessi possono essere attivi o no: ciò è utile per esempio per fare grafici o fit parziali. alcune procedure.Interfaccia iniziale La finestra iniziale è composta da tre parti: . sua incertezza (assoluta).

logaritmico. ma si può aumentare il limite col set-up) . fino al sesto ordine. passa alto e passa banda). Possono tuttavia essere visualizzati sullo stesso grafico altri GD.fit di funzioni di trasferimento (passa basso. È visualizzabile la zona di piano che comprende il range di variazione dei parametri (senza l’imposizione della dovuta correlazione tra i coefficienti stimati). Analisi statistiche Sono attivabili semplici analisi statistiche del singolo GD o il coefficiente di correlazione (ed eventualmente lo scatter-plot. saranno supportati. le legge tutte e le mette in GD successivi. in lettura e scrittura. 258 . quale colonna si vuole leggere. tramite il menu “New input”.. Per il primo e il secondo ordine vengono calcolate frequenze di taglio. inverso. se si risponde 0. Altri formati. radice quadrata.fit polinomiali (fino al sesto grado. con nuove scelte di range e di tipo per le coordinate. anche le risonanze. fit di potenza. a partire da quello richiesto dall’utente (ATTENZIONE ! la prima colonna va anche nel GD 0). il tipo delle coordinate è normale. Grafico Si può graficare il GD “a fuoco”. frequenze di risonanza. tau e Q. si noti che il passa alto e il passa basso. cioè un GD con ascissa l’ordinata del primo GD e come ordinata quella del secondo) di due GD. Può essere creato un nuovo grafico (con l’ultimo GD immesso). attivando le flag di conversione logaritmica. Quindi ogni grafico ha un GD “padrone”. Per quanto riguarda i fit di funzioni di trasferimento. Dell’ultimo GD immesso nel grafico può farsi il fit (in vari modi).fit lineari. per entrambi gli assi. come si preferisce. Dai fit lineari e polinomiali si puo’ fare. È possibile fare il test del chi-quadro tra due GD o tra un GD e il fit calcolato. a partire dal secondo ordine. Nel caso del fit esponenziale si calcola anche il tau. In particolare: . nel caso del fit di potenza si calcola anche l’esponente.<y1> <y2> … I dati possono continuare su più righe. esponenziali e logaritmici. Il fit è visualizzabile correttamente solo per coordinate normali o logaritmiche. quadrato. I dati nei file possono essere letti con la Open del menu file della finestra “Standard Data Input” o 258ompatta sull’icona open file della task bar. generici o con un punto fisso o con fissata pendenza . Fit Sono attivabili vari tipi di fit per i dati presenti. viene chiesto se si vuole leggerlo lo stesso anche se non è UD. Se si apre un file con formato MD.

integrali.il calcolo dello spettro di potenza .il calcolo della correlazione incrociata (cross-correlation) tra due GD . asimmetria e curtosi. convoluzioni. ci sono: . si possono calcolare media.…) . simulati o distribuzioni di probabilità. massimo) . Varie operazioni sui GD Ai GD possono essere applicate varie procedure. integrale totale. Possono essere letti con un normale word processor. A parte la derivata e l’integrale (eseguito con semplice sommatoria). logaritmo naturale. Per i GD che rappresentano istogrammi o densità di probabilità.il calcolo dell’autocorrelazione (attivabile o dalla finestra dello spettro di potenza o come caso particolare della correlazione incrociata .applicazione di vari filtri digitali. 259 . Segnali teorici. in file rtf.operazioni lineari su due GD (a*GD1+b*GD2+c) [se si vuole.operazioni non-lineari su due GD (prodotto. divisione. simulati e distribuzioni Possono crearsi GD contenenti decine di tipi di segnali teorici. basate sull’ampiezza. minimo. FFT (che può produrre un GD complesso) .operazioni sugli assi x e/o y (quadrato. come Word. o anche visualizzati nella finestra di testo della finestra principale. sul valore dell’ascissa e/o sul valore dell’indice dello stesso GD o di un altro . ma non il primo] .selezioni. in modo causale.Analisi dei segnali Le operazioni di analisi dei segnali sono orientate ai GD di tipo sampled data.operazioni di insieme (cancellamento. per ora. radice quadrata. limitato) . derivate. concatenazione di due GD. si può ignorare il secondo.operazioni su GD complessi (il supporto ai GD complessi e`. anti-causale o bifronte Calcoli (menu “Computations”) Può calcolarsi l’integrale definito (in un intervallo di indici o di ascissa) di un GD. deviazione standard. rotazione e “inversione” per un singolo GD. Sono previsti: . con b=0. inverso. WordPad e simili. logaritmo decimale. Esercizi Gli esercizi sono raccolti in vari capitoli.

cpp .dll per il C/C++ fsnagdll. tutte contenute in csnagdll.il server fornisce l’eventuale GD di uscita e gli eventuali parametri di output (visualizzati dal client). oppure fanno calcoli su GD. per cui SnagLab agisce da client rispetto a dll esterne che fungono da server di procedure. girarlo in Visual C++ e fare le modifiche.dll per accedere ai dati di antenne gravitazionali) 260 . fornendo dei valori default . Viene fornita un progetto “template” in Visual C++ per la costruzione della csnagdll.il server gli manda la lista che il client visualizza . Altre dll saranno fornite per accedere a dati e procedure esterne (per esempio snagframedll. Il nome delle dll esterne ammissibili è csnagdll. Occorre 260ompattarlo.dll per il Fortran bsnagdll.il client chiede quali sono le procedure disponibili . Il modello è client-server. solo GD di tipo 3 sono gestibili.dll .il server manda le liste dei parametri reali e interi necessari.dll e snagr87. Ciascuna dll può fornire fino a 50 programmi.il client visualizza la lista dei parametri (“di input”) e l’utente (il client) digita i valori (se sono diversi dai default) .dll per il Visual Basic Tali file devono essere nel folder del programma SnagLab. Il colloquio client-server funziona così: . Il progetto e` contenuto in uno zip file.Programmi esterni E` possibile aggiungere programmi esterni che creano o modificano GD. Le routine basilari (che devono essere modificate dall’utente) sono getcepl getextprneeds cextpr3 oltre a crea_prog_list. Per ora.il client sceglie quale procedura vuole e su quali GD deve operare .

981237 0.995201 0.876976 0.982997 0.587064 0.5 2.990613 0.999238 0.547758 0.606420 0.967116 0.951543 0.999800 0.999815 0.984997 0.975581 0.999381 0.761148 0.821214 0.999983 0.878999 0.5 3.997445 0.996833 0.999874 0.881000 0.999807 0.846136 0.987455 0.999984 0.788145 0.980301 0.994132 0.983823 0.940620 0.930563 0.999958 0.868643 0.979818 0.999289 0.754903 0.715661 0.1 1.999928 0.960796 0.995855 0.999974 0.796731 0.03 0.948449 0.993053 0.770350 0.9 2 2.04 0.991344 0.999961 0.782305 0.999977 0.848495 0.931888 0.999749 0.952540 0.969258 0.999828 0.866500 0.751748 0.999983 0.977250 0.998817 0.941792 0.996319 0.947384 0.973197 0.996928 0.998736 0.896165 0.972571 0.999550 0.874928 0.959941 0.992451 0.923641 0.973810 0.997744 0.999730 0.989830 0.999976 0.987776 0.906582 0.913085 0.694974 0.999858 0.779350 0.982571 0.625516 0.986097 0.999971 0.999964 0.994297 0.4 2.953521 0.999970 0.999581 0.999896 0.500000 0.853141 0.983414 0.970621 0.2 2.503989 0.764238 0.836457 0.904902 0.920730 0.644309 0.995339 0.999956 0.922196 0.4 0.870762 0.8 1.999155 0.988089 0.4 1.998511 0.971284 0.992656 0.999966 0.996427 0.571424 0.6 3.999740 0.996736 0.997948 0.999792 0.988696 0.997365 0.590954 0.988396 0.999499 0.06 0.828944 0.802338 0.999776 0.999869 0.968557 0.850830 0.999126 0.859929 0.3 2.999946 0.659097 0.826391 0.999975 0.670031 0.988989 0.575345 0.903199 0.735653 0.998411 0.999864 0.998965 0.933193 0.996093 0.978822 0.971933 0.994614 0.998193 0.990097 0.984222 0.2 3.515953 0.999336 0.997020 0.999821 0.999517 0.999888 0.527903 0.999698 0.01 0.999767 0.551717 0.999943 0.07 0.833977 0.738914 0.996636 0.8 3.999908 0.767305 0.999883 0.999847 0.08 0.999968 0.999443 0.998012 0.999533 0.9 4 4.677242 0.999211 0.855428 0.Tabelle Distribuzione cumulativa normale standardizzata z 0 0.964852 0.957284 0.583166 0.7 3.8 2.989556 0.990863 0.998694 0.535856 0.976705 0.773373 0.998893 0.999985 0.742154 0.999941 0.813267 0.684386 0.818589 0.543795 0.999462 0.815940 0.897958 0.862143 0.998559 0.999979 0.999982 centesimi z 0.823814 0.841345 0.999912 0.680822 0.984614 0.936992 0.999952 0.992240 0.999972 0.758036 0.999758 0.999064 0.610261 0.950529 0.999918 0.985738 0.997599 0.999402 0.991576 0.05 0.999963 0.997814 0.999032 0.999675 0.926471 0.999981 0.531881 0.7 2.944083 0.994915 0.999986 261 .999980 0.908241 0.999959 0.997110 0.999954 0.701944 0.555670 0.982136 0.999967 0.999915 0.3 1.673645 0.999853 0.962462 0.662757 0.617911 0.998999 0.987126 0.884930 0.4 3.882977 0.929219 0.579260 0.986447 0.5 1.999264 0.990358 0.999720 0.892512 0.997523 0.6 2.998650 0.999650 0.999950 0.998462 0.999936 0.999948 0.999841 0.999985 0.961636 0.949497 0.687933 0.708840 0.901475 0.648027 0.938220 0.942947 0.999925 0.872857 0.999184 0.539828 0.5 0.705402 0.2 0.999784 0.995975 0.888767 0.993613 0.991802 0.999566 0.810570 0.999610 0.996207 0.1 0 0.998605 0.969946 0.999313 0.994457 0.799546 0.563559 0.886860 0.807850 0.997282 0.993963 0.916207 0.958185 0.857690 0.981691 0.999938 0.991106 0.722405 0.633072 0.999359 0.998074 0.917736 0.843752 0.805106 0.999892 0.967843 0.785236 0.927855 0.999904 0.791030 0.519939 0.559618 0.507978 0.655422 0.666402 0.999978 0.02 0.914656 0.999835 0.890651 0.999879 0.793892 0.636831 0.966375 0.614092 0.725747 0.2 1.523922 0.698468 0.974412 0.999930 0.993790 0.621719 0.993431 0.9 3 3.998359 0.975002 0.640576 0.997197 0.999638 0.994766 0.999973 0.997673 0.998250 0.995603 0.838913 0.567495 0.911492 0.955435 0.594835 0.964070 0.511967 0.999922 0.998856 0.602568 0.999423 0.831472 0.976148 0.986791 0.993244 0.935744 0.3 0.939429 0.745373 0.712260 0.959071 0.909877 0.729069 0.7 1.9 1 1.999687 0.998930 0.985371 0.998134 0.691462 0.629300 0.992024 0.977784 0.965621 0.954486 0.1 0.995473 0.995731 0.980774 0.719043 0.999624 0.996533 0.864334 0.999933 0.776373 0.956367 0.894350 0.925066 0.934478 0.999096 0.999900 0.997882 0.1 2.999596 0.992857 0.6 0.899727 0.979325 0.998305 0.963273 0.946301 0.919243 0.7 0.8 0.998777 0.732371 0.999481 0.1 3.978308 0.3 3.999663 0.6 1.651732 0.748571 0.995060 0.989276 0.945201 0.999709 0.09 0.598706 0.

925 76.513 50.010 50.296 27.637 82.383 53.924 35.691 64.415 37.275 61.191 37.230 56.698 39.498 49.718 37.588 71.557 37.507 16.179 52.053 69.055 73.909 34.314 46.542 24.559 49.607 60.051 55.459 68.987 17.192 53.475 74.152 67.873 15.409 34.885 40.916 39.725 35.260 45.805 52.991 7.268 49.821 36.181 45.407 57.787 52.99 6.218 80.652 38.974 47.131 40.9995 0.892 52.779 9.818 80.267 35.605 6.769 25.684 15.141 30.278 49.104 23.960 55.592 14.616 71.827 33.619 54.096 77.619 59.563 36.671 33.688 29.382 35.434 45.345 13.869 30.985 46.892 73.672 55.999 53.097 70.812 21.078 0.204 28.575 44.160 63.174 81.252 40.289 41.995 7.971 73.860 16.548 20.478 54.201 17.524 57.369 57.466 20.813 32.710 69.815 16.869 65.796 48.957 0.741 37.731 19.194 47.744 76.724 76.196 34.558 46.156 38.106 24.401 42.838 14.999 10.648 58.458 78.557 43.266 18.087 40.801 34.685 24.188 26.209 24.Valori del  2 per un dato livello di fiducia Livello di fiducia Gradi di libertà 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 0.162 62.527 36.623 69.645 50.236 10.802 50.217 27.757 28.486 54.206 67.067 58.090 55.585 43.336 70.932 40.989 27.337 42.841 5.881 31.166 64.172 36.9999 12.582 39.384 54.993 66.301 59.667 63.704 72.401 67.124 37.007 33.251 7.819 31.400 48.365 39.997 41.418 78.955 23.942 58.348 70.883 64.578 32.124 27.307 23.425 21.272 87.136 61.055 83.477 38.745 44.856 59.892 58.95 3.964 60.475 20.506 25.026 22.321 26.827 13.256 41.191 53.212 48.642 46.000 33.185 50.804 69.181 65.656 0.926 47.113 41.018 27.656 66.328 57.667 31.919 18.488 11.070 262 .307 19.098 62.290 49.308 42.067 15.597 12.275 18.893 61.619 67.675 21.775 56.487 63.109 39.363 49.672 89.796 44.335 53.588 31.589 25.766 68.998 22.247 66.638 42.166 0.877 29.210 11.751 27.717 41.949 54.475 84.428 63.963 48.419 33.874 86.645 12.138 34.017 13.773 44.728 51.588 50.197 70.527 82.572 55.853 29.750 18.278 21.879 10.867 29.277 15.615 30.319 32.362 14.412 29.950 66.124 59.549 19.9 2.881 44.660 51.475 56.090 21.635 9.505 0.566 38.725 26.791 42.457 24.342 58.734 62.304 60.903 46.070 12.475 66.481 61.998 52.980 44.602 49.666 23.994 52.115 15.312 43.812 18.422 42.403 74.372 77.815 9.134 18.928 48.510 51.061 57.299 60.749 80.410 32.086 16.059 47.948 56.819 45.064 22.029 73.805 36.996 26.564 72.581 62.800 79.300 29.515 22.264 32.706 4.985 69.873 42.350 74.102 26.002 56.362 23.581 64.702 61.758 56.314 45.144 31.587 28.084 77.

R. J.Oppenheim. Partial fraction expansion Applications to communication. Generale Autore/Editore vari / CRC – Chapman&Hall Titolo Argomenti/Commenti Digital Signal Processing Handbook Poularikas (ed.P.R. Mathematical Reviews 263 .Schafer.Buck / Prentice Hall 1999 Haykin – Van Veen Hsu / Shaum Titolo Signal Processing and Linear Systems Signals and Systems Discrete-Time Signal Processing Signals and Systems Signals and Systems Argomenti/Commenti State space analysis Modulation.by) Handbook of Formulas and Tables for Signal Processing Bendat e Piersol / Random Data: Wiley Analysis and Measurement Procedures MatLab Statistics Toolbox MatLab Signal Processing Toolbox Segnali deterministici – Filtraggio Autore/Editore B.V.Bibliografia In genere sono indicati solo gli argomenti più caratterizzanti. filters and equalizers and feed-back systems State Space Analysis. Lathy / BerkeleyCambridge OppenheimWillsky / PrenticeHall A.W.

Circuit analysis. whitening transforms. adaptive filters. low noise design 264 . Smith / California Technical Publishing S.Hayes / Shaum Karu / Zizi Press Lyons / Prentice Hall White Britton Rorabaugh / TAB Books S.Mills Digital Signal Processing Signals and Systems Made Ridiculously Simple Understanding Digital Signal Processing Digital Signal Processing Digital Filter Designer’s Handbook The Scientist and Engineer’s Guide to Digital Signal Processing Signals and Systems SIGNAL ANALYSIS TIME. Digital data formats. Discrete signals representations. Causality and Stability. wavelet transform Fixed point filters. Hilbert. Filter design Bode plots. multirate filters. Mixed domain signal analysis A. image processing. Feedback. Signal averaging. Karris / Orchard R. Frequency domain analysis. Band-pass signals.T. Mertins / Wiley Hartley. SCALE. FREQUENCY.L. Modulation Advanced sampling techniques. Howard / Wiley Titolo Principles of Random Signal Analysis and Low Noise Design Argomenti/Commenti Power spectral density analysis. Deconvolution. DSPs Inverse Laplace transform.Allen. Time-Frequency Transforms and Applications Filter Design Implementation. uncertainty principle. State variables Generalized Fourier Transform. AND STRUCTURE Signal Analysis Wavelets. TimeScale signal transform. D.W. Practical considerations Applications to audio processing. DSP tricks Coefficient precision Bilinear transformations. frequency transformations MatLab Segnali stocastici Autore/Editore R. neural networks.M.W. power spectrum and autocorrelation estimation. Filter Banks. memoryless transformations of random processes. TimeFrequency Signal Transform.

Linear filters. Networks A. Adaptive filters.Glover. Optimum linear systems. PAL. Reduction Power spectrum and correlation. Impulsive noise. Decision theory. Princeton spectral analysis. random processes. Hsu / Theory and McGraw-Hill. Random Variables. Optimum filtering. Asymptotic University Press distributions. Random Variables McGraw-Hill 2002 and Stochastic Processes Hwei P. Problems of 1997 Probability. JPEG. Prediction.G.P. Estimation Probability. Decision Prentice Hall Communications theory. Vaseghi / Advanced Digital Probability models. Probability. P. Unnikrishna Pillai. and random signal principles A Handbook of Time-Series Analysis. Bayesian Wiley Signal Processing estimation. State space Academic Press equations. Signal Processing and Dynamics Time Series Analysis Aspetti matematici Autore/Editore Titolo 265 Argomenti/Commenti . Estimation theory J. Equalization I. theory and Random Processes S. Noise in practical systems D. Queueing Random Variables. Non-stationary time series Hsu / Shaum Theory and Probability. Linear systems with random inputs. random variables.S.Z. Papoulis. S.Grant / Digital Digital communication. Pollock / Polynomial methods. Peebles Probability. Markov models. CDMA. Bayesian analysis. and Random Processes MatLab Financial Time Series Toolbox MatLab GARCHToolbox Probability. Interpolation. forecasting. Random processes Problems of processing and analysis. Wiener and Noise filters. MPEG. TDMA. Kalman filter. Multiple random variables.D. Hamilton / ARMA processes. theory.V. Information theory. Statistical distributions. Least square methods. ARMA processes.

Image improvement. Image enhancement in space and frequency domains. Image compression. Linear processing.X. Bayesian philosophy Hilbert spaces. Image processing Image algebra. Representation and description.Pratt / Wiley Digital Image Processing Hany Farid / Fundamentals www. Wavelet. Image enhancement. PIKS software Linear filtering. Feature description.C. Motion estimation. Pattern matching.Kay / Prentice Hall R. J. Edge detection. Image analysis. Object recognition Continuous and digital image characterization. Maximum likelihood. R. Multidimensional wavelets. Principal components analysis Basic. Erhardt-Ferron Theory and Applications of Digital Image Processing Wavelets with applications in signal and image processing Handbook of Computer Vision Adhemar Bultheel G. Image restoration. practical W. Morphological transforms. transforms (?) Immagini Autore/Editore R.edu/ of Image ~farid/tutorials/ Processing A.Ritter. Woods / Prentice Hall Titolo Digital Image Processing Argomenti/Commenti Visual perception. Timefrequency plane. Gonzales. Nonlinear filtering. Thining and skeletonizing. Baraniuk Fundamentals of Statistical Signal Processing: Estimation Theory Signals and Systems Estimation. Least squares.M.dartmouth. Filter banks. Dithering. Signal processing.E. Linear image transform. Multiresolution. Kalman filter. Wiener filter.Wilson / CRC Press MatLab Image processing toolbox Heisenberg uncertainty. convergence. Linear Models.N. Median filter.K. Neural network and cellular automata 266 .S.cs.

Van Trees / Wiley Titolo Detection. 1. and Modulation Theory. Part I Argomenti/Commenti Classical detection and Estimation Theory. Wornell / Prentice Hall Signal Processing with Fractals: a Wavelet-Based Approach F. No. Estimation. Torrente.tuwien. Estimation of signal parameters and continuous waveforms Statistically self-similar processes.Tong / Oxford Science Non-linear Pubblications Time Series MatLab (5) Higher-Order Spectral Analysis Toolbox MatLab Wavelet Toolbox MatLab Fuzzy Logic Toolbox MatLab Neural Network Toolbox MatLab System Identification Toolbox Molti altri articoli nel sito Semplice introduzione 267 . Hlawatsch.ac. Fractal modulation G. January Analysis 1998 H.L.html Signal Processing: A Statistical Perspective C. G. Wavelet Vol. Matz / Timehttp://www. Random processes.at/ Frequency dspgroup/tfgroup/time. C.Altro Autore/Editore H.P.Compo / A Practical Bulletin of the American Guide to Meteorological Society.nt. 79.

........... 22 convoluzione discreta.................. 196 filtro di quadratura ............................................. 55 evoluzione libera .................... 163 funzione caratteristica .......16............ 165 analisi preliminare................. 63 livello di fiducia ............................................................. 171 F falso allarme ............... 26 funzione di trasferimento discreta .............................. 71 ipotesi nulla ....................................................................................... 42 di Poisson ........................................................................................................ 85 filtro a mediana ................................................................... 44 esponenziale ................................................................................. 43 uniforme ............................................. 59 B bispettro ................................................................................................................... 50 deviazione standard. 72 lock-in . 72 livello di significatività ............ 41 disturbi impulsivi ................................................. 40 disuguaglianza di Schwartz ........................................................................................................................................ 51 curtosi .................................. 45 distorsione .................. 186 esperimenti controllati ........ 205 adattato ...... 55 268 ............................ 65 frequenza di Nyquist ...................................................................... 169 K kurtosis ............................ 208 disuguaglianza di Chebyshev ............................................................. 41 autocorrelazione ...................................... 38 cumulativa .............................................. 8 campionamento non uniforme ................................................................................................................................................................................................................................................................................................ 192 di Wiener ....................................................................................... 63......................................... 189 consistenza ............................... 225 indipendenza stocastica ........................... 41 del chi quadro .................. 41 G GD ................... 206 lineare per immagini ......... 56 convoluzione .................................. 38 di Raleigh ................................................. 63 ipotesi alternativa.................... 199 FFT ..... 229 sbiancante....................... 56 distribuzione binomiale .................................................... 55 intervallo di confidenza......................................................... 203 FIR ....................................... 205 IIR205 in frequenza....................................................................................................................................... 242 E efficienza ......................................Indice Analitico esperimenti osservativi .................................................................. 49............................................................................. 41 L likelihood ........... 52 coerenza ................................................................................................. 162 asimmetria.................................. 75 correttezza ......................................................................................... 245 distibuzione t di Student .......................................................................................................... 247 coefficiente di correlazione ................... 92 A aliasing ......................................................................................................................................................... 215 C campionamento .......................................................................................... 59 livello di confidenza ............................................................. 56 covarianza ..................................................................................................... 44 di Gauss o normale ... 86 equazioni di Yule e Walker .... 47 funzione di trasferimento............................................................................................................. 208 a sfasamento nullo..................................................................................................... 37 diagramma di fase ....................................................................................................................................................................................................................... 19.................................................. 255 D densità marginali ........... 42 di Cauchy.................................................. 53 I immagini ........................... 50 inferenza statistica ....... 56 equazioni alle differenze .................. 130 fit armonico ...................................... 246 fit lineare .................................................. 87 funzione di verosimiglianza ... 71 istogramma ...................................................................................................................................................................

............................................................................... 16 MA del primo ordine.............................................................................. 126 durata ................................. 138 spettro incrociato ..................................................................................................... 249 principio dei minimi quadrati ............................................................................... 58 Matlab ............................................................... 137 trasformazioni .. 9....................................................... 39 P periodicità coerente ........................................................................................... 65 del valor medio ............................................... 136 bispettro ................. 134 autocorrelazione ....... 139 pulsazione normalizzata ....................... 137 stazionari ........................................................................... 15 statici o dinamici .. 55 correlazione incrociata ....................... 25 pacchetto gaussiano .... 190 rumore di quantizzazione .............................. 188 dei parametri di una retta sperimentale ..................................................................... 33 stabili........................................................................................... 23 gradino .......................................................................... 24 periodici ........................................................... 102 MA o a media mobile..................................................... 11 esponenziale decrescente .................. 10 transitori .................................................................................. 64 dell'autocorrelazione ..................................................... 9 distanza .............................................................. 14 di ordine 0 ..... 126 reali e complessi .......................... 160 rumore bianco ............................................................. 250 periodicità non coerente ....... 167 S segnale analitico............ 56 moda ..................................... 255 spettro di energia ........................................................ 126 correlazione .......................................... 41 Snag....... 133 posizione .............................................................................................. 95 MA del secondo ordine ......................................... 171 dello spettro di potenza .................................................................... 191 risposta forzata ................................................. 250 stabilità .................................................................. 10........................................................................ 173 spettro impulsivo ..................................................................................................... 173 269 ...................... 126 delta......................................................................... 39 minimi quadrati .............. 29 passa-tutto ................................. 135......................................... 23 pacchetto rettangolare .................................................................................... 12 lineari .... 137 spettro di potenza ........................... 24 sinusoidale .. 96 risonanza continua ........................................................................................................................... 66 Principio di Ortogonalità ................................................. 123 passa-alto continuo ............................... 124 energia....................................... 77 ARMA (1................. 52 mediana ....... 8 convoluzione ............................................. 124 prodotto vettoriale ................................................................................ 15 skewness.... 118 causali ................................... 137 processi ARMA ................................................................................................................. 145 rumore bianco discreto . 147 processo AR(1) complesso ........................................................................... 129 continui e discreti ........................................... 9 rettangolo ........................... 124 esponenziale complesso ............ 138 e sistemi lineari ......................................... 138 cumulante del quarto ordine ................. 112 AR del primo ordine (reale) ......................................................... 91 rivelazione..... 124 sistemi AR del primo ordine (complesso) ........................................... 237 periodicità di eventi................. 140 trispettro..................................................................................................................................................................................................................................................................... 200 rumore ......................................................................................... 57 processi stocastici .............. 84 R rapporto segnale/rumore ......... 124 larghezza ................... 124 lorentziana ............... 115 AR o auto-regressivi .................................................................. 77 ARMA ............................................................................................................................................... 126 cross-energia ....... 149 scorrelati ........... 62 della varianza .......................................................................................................................................................................................................... 13 tempo-invarianti ........................................................................................................................ 13 in serie .................. 251 matrice di covarianza ....................................................................................... 25 impulsivi ................................................................................................................................. 254 SnagLab ............... 138 cumulante del secondo ordine.. 139 correlazione incrociata ....................... 237......... 137 cumulante del primo ordine ....................................................................................................................................................................................................................................................... 123 in parallelo ... 129 spettro di potenza .. 25 deterministici o casuali.................................................. 77 non lineari .................................................... 139 normali ....................................... 191 robustezza....... 9 permanenti ..................................................... 137 covarianza incrociata ........................................... 144 ortogonali........................................................................ 25 esponenziale simmetrico ................................................................... 56 ROC (Receiver Operating Characteristics ................ 14 lineari continui ....................................................................................................... 157 processo di Poisson .................................. 25 gaussiana ......................................................................................... 75..... 130 segnali analogici e digitali ................................. 154 processo AR(1) reale ..................................................... 95 di Volterra ..................................................................................................................................... 152 processo AR(2) ... 92 risposta impulsiva ......... 136........................................................................................................................................... 141 ergodicità ............ 138 cumulante del terzo ordine.................................................................................................................1) .................................................... 94 stima ...... 105 AR del secondo ordine ........................................... 9 autocorrelazione .......... 138 autocovarianza .........M massima verosimiglianza ............ 31 passa-basso continuo ............

.......... 199 test statistici ........... 85 di Fourier per dati discreti ..................................................................................................................................................... 37..................................................................................................................................................... 19 270 ..................................................................................................................................................................................................................................... 175 incertezza .................................................................................. 180 non parametrica .......................................................................... 61 del campionamento ... 188 stima bayesiana ............... 84 di Hilbert ............................................................................... 49 varianza ................................................................................................................. 37...................... 39 valor medio di g(x) ....................................................... 18 wavelet ...................................................................... 186 risoluzione ................................ 39 valore aspettato...... 37 multiple .. 56 di Fourier discreta ....... 130 di Laplace ...................... 209 z 80 V valor medio ...............................................................spettro incrociato .................. 71 trasformata di Fourier .... 61 stima spettrale finestramento ............................................................................................................................................. 39 discrete ......... 174 parametrica ....... 175 stimatore ....................... 39 variabili casuali continue.................... 37 T teorema Bayes ....................... 163 teoria della rivelazione ..............