You are on page 1of 7

4 Estimarea spectrală a semnalelor

Determinarea proprietăţilor spectrale ale unui semnal prezintă o mare


importanţă practică prin marea varietate de aplicaţii în care aceste proprietăţi se
regăsesc: semnale seismice, radio-astronomice, economice (trenduri financiare,
stări bursiere). De regulă aceste semnale sunt semnale aleatoare discrete pentru
care se pot efectua măsurători doar asupra unor realizări particulare, într-o fereastră
temporală finită. Informaţia iniţială va fi deci formată dintr-un număr finit de
eşantioane xk, k = 0, 1, ... N-1; pe baza acestor date ne propunem ca pentru un
proces aleator staţionar în sens larg să estimăm densitatea spectrală de putere a
procesului.

4.1 Elemente de semnale aleatoare şi teoria estimării

A. Considerăm cunoscut faptul că multe semnale din practică sunt


caracterizate de un volum foarte mare de date care nu permite nici descrierea
printr-o lege cunoscută, nici descrierea tabelară. În astfel de situaţii se preferă
descrierea aleatoare. Un semnal aleator este o componentă a unei mulţimi de
semnale în timp discret, caracterizată prin funcţie de repartiţie sau prin densitate de
probabilitate.
Semnalele aleatoare nu sunt integrabile în sens obişnuit – de fapt pentru ele se
introduce integrala zisă stochastică (fie în sens Itô, fie în sens Stratonovici) – şi nici
nu au transformată Fourier. Dacă aceste semnale au proprietatea numită
staţionaritate în sens larg, atunci li se poate asocia o funcţie spectrală ce reprezintă
distribuţia în frecvenţă a puterii semnalului. Mai precis, acestor semnale li se
asociază secvenţe de auto–corelaţie sau inter–corelaţie care admit transformate
Fourier; aceste transformate Fourier furnizează funcţiile spectrale menţionate mai
sus.
În cadrul prelucrării semnalelor se presupune că prelucrarea semnalelor
aleatoare se face în sisteme descrise sub forma convolutivă discretă
yk = ( h ∗ u ) k

unde şirul pondere {hk }k este determinist. Faptul că relaţia convolutivă de mai sus
este valabilă pentru orice semnal din mulţimea de semnale aleatoare, care poate fi
privit ca o realizare a procesului stochastic asociat acestei mulţimi, nu are relevanţă
prea mare în prelucrarea semnalelor. Cu adevărat relevant este efectul prelucrării
prin sisteme convolutive a aşa numitor indicatori numerici ai semnalelor
(proceselor aleatoare) cum sunt:
- valoarea medie: mu ( k ) = E ( uk ) , prin E {i} înţelegând speranţa matematică,
adică o medie ponderată probabilistic pe câmpul de evenimente (o medie
„spaţială”); pe un câmp discret (finit sau numărabil) speranţa matematică se
calculează ca o sumă iar pe un câmp de puterea continuului ca o integrală
stochastică. Pentru un proces stochastic staţionar valoarea medie este independentă
de momentul la care se consideră procesul.
În baza expresiei convoluţiei pentru un semnal şi prin schimbarea ordinii de
sumare deducem
∞  ∞
m y ( k ) = E { yk } = E ∑ hk uk −i  = ∑ hk E {uk −i }
 −∞  −∞

= ∑ hk mu ( k − i )
−∞

Pentru semnal staţionar de intrare mu = ct şi


 ∞ 
m y ( k ) =  ∑ hk  mu ≡ ct
 −∞ 
deci şi semnalul de ieşire rezultă staţionar; putem scrie, de asemenea
m y = hˆ (ω ) mu

unde hˆ (ω ) = ∑ hk e − jω k este transformata Fourier a şirului pondere – care există în
−∞
ipotezele care permit stabilirea relaţiilor de mai sus.
- funcţia de autocorelaţie, definită prin
ϕ uu ( k , k + p ) = E {uk uk + p }
depinde, pentru un semnal (proces) aleator staţionar în sens larg, doar de diferenţa
argumentelor (aceasta este definiţia procesului în sens larg). Pentru un sistem liniar
invariant în timp şi convolutiv vom obţine
 ∞
 ∞

ϕ yy ( k , k + p ) = E { yk yk + p } = E  ∑ hiuk −i  ∑ hmuk + p−m   =
 −∞  −∞ 
∞ ∞ ∞ ∞
= ∑ hi
−∞
∑ h E {u
m =−∞
m u
k −i k + p − m } = ∑ h ∑ h ϕ ( k − i, k + p − m )
−∞
i
−∞
m

Dacă semnalul de intrare este staţionar atunci


ϕuu ( k , k + p ) = ϕuu ( p )
ϕuu ( k − i, k + p − m ) = ϕuu ( p + i − m )
şi de aici
∞ ∞ ∞ ∞
ϕ yy ( k , k + p ) = ∑ hi ∑ hmϕuu ( p + i − m ) = ∑ hi ∑ hi + sϕuu ( p − s )
−∞ −∞ −∞ −∞

 ∞
 ∞
= ∑  ∑ hi hi + s ϕuu ( p − s ) = ∑ ϕhh ( s )ϕuu ( p − s ) = ϕ yy ( p )
−∞  −∞  −∞

Constatăm că răspunsul sistemului este tot un semnal staţionar în sens larg iar
ecuaţia intrare/ieşire este una standard, în care funcţia pondere se înlocuieşte cu
propria sa autocorelaţie.
Funcţiile de autocorelaţie admit transformate Fourier şi relaţia convolutivă
sugerează utilizarea unei ecuaţii în transformate Fourier. Deducem
φ yy (ω ) = ϕˆ yy (ω ) = ϕˆhh (ω )φuu (ω )
iar pe baza caracterului determinist al sistemului vom putea scrie

 ∞  − jω s ∞ ∞
ϕhh (ω ) = ∑  ∑ hk + s hk e
ˆ = ∑∑ hi hk e ( )
− jω i − k

−∞  −∞  −∞ −∞

 ∞  ∞  2
=  ∑ hi e − jωi  ∑ hk e jωk  = hˆ (ω ) hˆ (ω ) = hˆ (ω )
 −∞  −∞ 
de unde
2
φ yy (ω ) = hˆ (ω ) φuu (ω )

B. În prelucrarea semnalelor se înţelege prin estimare obţinerea valorilor


unor mărimi necunoscute, deterministe sau aleatoare pe baza unui set de observaţii
ce reprezintă, de regulă, variabile aleatoare.
Cele de mai sus arată că în estimare se au în vedere două probleme distincte:
a) estimarea unor parametri, determinişti dar necunoscuţi, pornind de la setul
de observaţii, aici este vorba în special despre indicatorii numerici ai
proceselor aleatoare (valori medii, corelaţii, densităţi spectrale) sau
parametri ce caracterizează aceşti indicatori;
b) esimarea unei variabile aleatoare: cea mai cunoscută problemă este aici
estimarea eşantioanelor (de regulă, deterministe) de la intrarea unui sistem
pe baza eşantioanelor de la ieşire, considerate aleatoare prin suprapunerea
(însumarea) unui semnal aleator numit zgomot peste răspunsul (de regulă
determinist) al sistemului.
În cele ce urmează ne va interesa primul aspect. Pentru exemplificare vom
considera cazul unui semnal aleator – deci proces stochastic – pentru care se caută
o estimare a unui parametru de care depinde densitatea de probabilitate; informaţia
iniţială o constituie o fereastră finită a unei realizări a procesului aleator
x o = ( x0 x1 ... xN −1 ) . Dacă θ este parametrul căutat al funcţiei f ( x,θ ) , fie θˆ ( x 0 )
T

o estimare a lui θ realizată pe baza lui x 0 ; datorită caracterului lui x 0 , θˆ este tot
variabilă aleatoare. Această variabilă este accesibilă prin indicatori numerici şi
performanţa estimatorului de parametru se apreciază tot printr-o serie de indicatori
numerici; dintre aceştia vom menţiona
- polarizarea (deplasarea – bias )

()
B (θ ) = E θˆ − θ
Dacă B (θ ) = 0 estimatorul se numeşte nepolarizat (nedeplasat – unbiased);
()
cum θˆ şi E θˆ depind de N – lungimea eşantionului (a ferestrei) vom spune că

estimatorul este asimptotic nepolarizat dacă lim B θˆ = 0 .


N →∞
()
- eroarea medie pătratică
EPM = E θˆ − θ { 2
}
- dispersia estimatorului

{
σ θ2 = E θˆ − E θˆ ( )}
2

- consistenţa estimatorului: un estimator este consistent dacă ∀ ε > 0

( )
lim P θˆ − θ > ε = 0 unde P ( i ) este probabilitatea definită pe câmpul de
N →∞
evenimente.
- funcţia de plauzibilitate coincide cu densitatea de probabilitate sau
cu logaritmul ei
l (θ ) = f ( x,θ ) ; L (θ ) = ln f ( x,θ ) = ln ( l (θ ) )
Pe baza acestei funcţii se poate concepe estimatorul de plauzibilitate maximă
definit de
θˆ ( x ) = arg max { f ( x;θ )}
θ

- măsura informaţiei în sens Fischer


 ∂ 2 ln f ( x,θ ) 
I (θ ) = − E  
 ∂θ 2 
sau, echivalent
 ∂ ln f ( x,θ ) 2 
I (θ ) = E   
 ∂θ  
- marginea Cramer-Rao este definită de dispersia minimă a unui
estimator nepolarizat. Dacă ∂ 2 L ∂θ 2 există şi este integrabilă, se demonstrează
inegalitatea
σ 2 ≥ I −1 θˆ
θ ()
iar egalitatea are loc dacă şi numai dacă estimatorul verifică
∂L
θˆ ( x ) − θ = K (θ )
∂θ
unde K (θ ) nu depinde de valoarea estimată.
C. Vom considera în continuare câteva aplicaţii simple pentru a exemplifica
noţiunile introduse.
- estimarea valorii medii pentru o variabilă aleatoare gaussiană cu
densitatea de probabilitate
1  ( x − m )2 
f ( x, m,σ 0 ) = exp − 
σ 0 2π  2σ 2
0 
Presupunem cunoscut setul de observaţii independente x = ( x0 , x1 ,..., xN −1 ) ;
T

densitatea de probabilitate de ordinul N va fi


N −1
f N ( x, m,σ 0 ) = ∏ f ( xi , m,σ 0 )
0

( x − m)
2
N −1
N
L ( m ) = − ln 2πσ 0 − ∑ i 2
2

2 0 2σ 0
∂L N −1 xi − m
=∑ =0
∂m 0 σ 02
Se obţine astfel estimatorul de plauzibilitate maximă
1 N −1
mˆ = ∑ xi
N 0
adică media pe ansamblu (“spaţială”) este estimată cel mai plauzibil cu ajutorul
mediei aritmetice pe o realizare. Să observăm că
1  N −1  1 N −1
E {mˆ } = E ∑ xi  = ∑ E { xi } = m
N  0  N 0
deci estimatorul este nepolarizat. Vom calcula în continuare dispersia
estimatorului
1 N −1 1 σ2
σ ( mˆ ( x ) ) = 2 ∑σ ( xi ) = 2 Nσ 02 = 0
N 0 N N
şi măsura Fischer a informaţiei
 ∂2L   N −1 1  N
I ( m ) = − E  2  = − E − ∑ 2  = 2
 ∂m   0 σ0  σ0
care apare aici ca inversa dispersiei, estimatorul fiind de dispersie minimă. De fapt
acest lucru era previzibil deoarece
1 N −1 σ 02 ∂L
mˆ ( x ) − m = ∑ xi − m =
N 0 N ∂m
σ 02
care corespunde formulei generale cu k = .
N
- estimarea funcţiei de autocorelaţie a unui proces aleator ergodic, de
medie nulă; procesul fiind staţionar în sens larg, funcţia de autocorelaţie va fi
ϕuu ( p ) = E {uk uk + p }
iar din ergodicitate rezultă
N
1
ϕuu ( p ) = lim
N →∞ 2 N + 1

−N
uk uk + p

adică informaţia “spaţială” se obţine dintr-o singură realizare de fereastră arbitrar


de largă.
Problema formulată este de a găsi un estimator ce utilizează informaţiile din
setul ferestruit
u , k = 0,1,..., N − 1
ukN =  k
0 , in rest
Definim
1 ∞
ϕˆuu ( p ) = ∑ ukN ukN+ p
M −∞
suma fiind convergentă pe baza finitudinii eşantionului; M trebuie ales pentru a
obţine un estimator nepolarizat. Pe baza definiţiei lui ukN vom deduce că ukN+ p = 0
pentru k + p < 0 şi k + p > N adică ukN+ p ≠ 0 , − p ≤ k ≤ N − 1 − p . Ca urmare
calculul lui ϕˆuu ( p ) va da:

i) pentru p < − ( N − 1) , deducem că ukN+ p are indicele peste N-1 şi diferit de 0


într-o zonă unde ukN = 0 . Pentru 0 ≤ k ≤ N − 1 avem ukN+ p = 0 . Deducem

ϕˆuu ( p ) = 0 , p < − ( N − 1)
ii) − ( N − 1) ≤ p < 0 ; când k este între 0 şi N-1, k+p se va găsi între –(N-1) şi (N-
1); deducem că între 0 şi N-1+p ambele numere sunt nenule şi deci
N −1+ p
1
ϕˆuu ( p ) =
M
∑ uu
0
k k+ p

iii) 0 ≤ p ≤ N − 1 ; pentru k între 0 şi N-1, k+p se va afla între p şi N-1+p,


rezultând
1 N −1− p
ϕˆuu ( p ) =
M 0
∑ uk uk + p
iv) p>N-1 şi atunci uk + p ≠ 0 pentru k<0 când uk = 0 . Deducem ϕˆuu ( p ) = 0 ,
rezultând expresia generală
 0 , p > N −1
 N −1− p
1
ϕˆuu ( p ) = 
M
∑0 uk uk + p , 0 ≤ p ≤ N − 1

 ϕˆuu ( − p )
 , − N − 1 ≤ p ≤ −1
În continuare calculăm valoarea medie a estimatorului:
1 N −1− p 1 N −1− p
E {ϕˆuu ( p )} = ∑ E {uk uk + p } = ∑ ϕ ( p)
uu
M 0 M 0

N−p
= ϕ uu ( p )
M
pentru p>0 şi, pe baza propietăţilor de simetrie ale autocorelaţiei:
N+p
E {ϕˆuu ( p )} = ϕ uu ( p )
M
formula generală fiind
N− p
E {ϕˆuu ( p )} = ϕ uu ( p )
M
De aici deducem polarizarea estimatorului
N − p −M
B (ϕˆuu ( p ) ) = E {ϕˆuu ( p )} − ϕ uu ( p ) = ϕ uu ( p )
M
şi pentru un estimator nepolarizat este suficient să luăm M = N − p obţinând
N −1
1
ϕˆuu ( p ) =
N− p
∑u
0
N
k ukN+ p

Dacă se ia M = N va rezulta un estimator polarizat deoarece


p
B (ϕˆuu ( p ) ) = − ϕuu ( p )
N
însă estimatorul rămâne nepolarizat asimptotic.

You might also like