Professional Documents
Culture Documents
FRANCE
R
REEPPR
REESSE
ENNTTA
ATTIIO
ONNSS T
TEEMMPPSS--FFR
REEQ
QUUE
ENNC
CEE
EETTT
TEEMMPPSS--E
ECCH
HEELLL LE
E
1 Introduction……………………………………………………………... 1
2 Rappels mathématiques.…………………...……………………………5
2.5. Conclusions……………………………………...……………………………….23
7.1. Motivations……………………..…………………………………………….157
7.2. Le principe des décompositions temps-fréquence adaptatives……………158
7.3. La distribution de Wigner-Ville modifiée……………………..……………159
7.4. Le dictionnaire adaptatif chirplets à 4 paramètres…………...……………161
7.4.1. Expression mathématique des fonctions chirplet……..……………….…………….162
7.4.2. La RTFA obtenue à partir de DAC4…………………..……………….…………….162
1
INTRODUCTION
Par définition, un signal est le support physique d'une information. Il s'agit d'une notion tout à
fait générale que l'on peut rencontrer dans des domaines aussi variés que l'électricité, l'électronique,
l'acoustique, l'optique, la mécanique, l'astronomie, la biologie, l'économie etc. En fait, on évoquera un
signal lors qu'il y a mesure et/ou transmission d'information d'une source vers un destinataire.
Traiter un signal, c'est essentiellement en extraire l'information que l'on juge utile, la mettre en
forme pour mieux l'analyser, la transmettre ou la stocker, l’épurer de parasites éventuels.
Le signal matérialise le transfert d'une information. On peut alors distinguer un certain nombre
d'opérations ou de situations qui sont communes à toute chaîne de traitement. On peut en tout premier
lieu distinguer les opérations :
§ Le pré-traitement qui est essentiellement relatif à la prise d'information elle-même, aux capteurs
et à leurs propriétés;
§ Le traitement proprement dit qui constitue le cœur de ce qu'on appelle le traitement du signal;
§ Le post-traitement qui inclut les actions (on parle alors plutôt d'automatique) ou des méthodes
symboliques ou de contexte (vision, intelligence artificielle etc…).
D'une manière assez générale, on peut résumer une chaîne de traitement du signal par le
schéma suivant :
Représentations
Décisions
Ce schéma met en jeu plusieurs espaces et des applications entre ces espaces. Les espaces sont
ceux :
§ Des états : c'est là que se trouve l'information utile;
§ Des signaux : ce sont eux qui matérialisent les états possibles;
§ Des observables : ce sont les seules grandeurs disponibles pour l'utilisateur;
§ Des décisions : c'est là que se matérialisent les opérations relatives aux signaux;
§ Des représentations : elles permettent de changer la façon dont on regarde un signal et peuvent
soit aider à l'analyse seule, soit constituer un détour utile pour construire une décision.
ENSIETA, Janvier 2002 1
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
1. Introduction
Les liens qui unissent ces différents espaces correspondent à des opérations de
§ Codage entre états et signaux;
§ Transmission (au sens large) entre signaux observables et décisions (l'espace des décision étant
supposé isomorphe à l'espace des états).
Nous pouvons donc formuler une problématique générale du traitement du signal de la façon
suivante :
Il s'agit d'élaborer la meilleure règle de décision, c'est-à-dire celle qui, à partir
des seules données observables, permet de caractériser au mieux une information utile
véhiculée par un signal
Il est clair qu'un tel objectif nécessite d’expliciter ce que l'on entend par "meilleure" et par "au
mieux". Il faudra donc définir des critères qu'il s'agira d'optimiser. Par ailleurs, l'objectif ne pourra
être atteint que si un certain nombre d'informations (a priori) supplémentaires sont disponibles.
Celles-ci pourront concerner :
− La nature ou les états d'un système;
− Le type de codage;
− Les informations relatives au canal de transmission et au bruit d'observation, etc.
Ceci étant supposé, le schéma décrit ci-dessus permet d'englober la majorité des tâches
essentielles auxquelles est confronté le traitement du signal :
- La détection : l'espace des états est alors discret (voire binaire) et le problème posé est de savoir
si une observation donnée correspond au signal utile mélangé du bruit ou à un bruit seul;
- L'analyse et l'estimation des paramètres : il s'agit cette fois, et toujours à partir d'une observation
imparfaite, de caractériser un signal par un jeu de paramètres qui le définite;
- Le filtrage : Il s'agit d'estimer un signal dans son ensemble et non par l'intermediaire d'un petit
nombre de paramètres caractéristiques.
Ces tâches élémentaires apparaissent souvent couplées, les problèmes réels faisant
fréquemment intervenir simultanément des opérations de filtrage et/ou de détection-estimation. On
peut aussi citer quelques exemples d'application pour lesquels le traitement du signal est
prépondérant:
§ Le traitement de la parole : analyse, synthèse, codage, transmission, reconnaissance, commande
vocale;
§ L'audio (compact disc) et la vidéo (TVHD) numériques;
§ Les télécommunications : téléphone, radio-mobile, vidéo-mobile, vidéo-conférence;
§ Le radar et le sonar (passif ou actif);
§ Le control non-destructif (par ultrasons ou par courrant de Foucault);
§ L'astronomie : imagerie optique et radio, interférométrie, optique adaptative;
§ La physique : turbulence, géophysique (interne et externe), sismique;
§ L'automobile et les industries mécaniques : diagnostic vibratoire;
§ Le nucléaire : surveillance et détection précoce d'incidents;
§ L'imagerie satellitale.
De par ses objectifs, le traitement du signal est clairement à une situation carrefour. Il est en
effet en contact étroit avec ses champs d'applications (mentionnés ci-dessus) dans lesquels il puise ses
motivations et pour lesquels il élabore la spécificité de ses solutions. Il repose par ailleurs sur des
outils mathématiques (comme l'analyse harmonique, l'algèbre linéaire ou les statistiques) qui lui sont
essentiels. Il est enfin un passage obligé pour des tâches comme la classification ou la reconnaissance
des formes.
Le traitement du signal est cependant une discipline autonome ; son originalité reposant d'une
part sur l'universalité de son langage et d'autre part sur l'enrichissement qu'elle a en retour par rapport
aux disciplines qui la nourrissent (développement d'algorithmes en mathématiques appliquées,
affinement de mesures en physique etc…).
La plupart des signaux réels sont de nature non-stationnaire (cette notion sera détaillée dans le
chapitre 3) et la difficulté de traiter ce type de signaux réside dans le fait que l'information portée par
ces signaux peut être utile ou nuisible. Par exemple, lors de la transmission d'un signal, la modulation
en fréquence ou en amplitude, donc la non-stationnarité - qui de ce point de vue constitue en
élément positif, sert à porter l'information utile. Mais, si un problème quelconque perturbe cette
modulation, alors l'information portée est en partie nuisible. Par conséquent, il faut trouver une
méthode pour récupère l'information utile, tout en sachant que les méthodes "classique" sont conçues
pour des signaux stationnaires. De ce point de vue, le caractère non-stationnaire devient un facteur
négatif dans le contexte de traitement de ce signal.
Les méthodes d'analyse temps-fréquence constituent la solution pour résoudre cette
ambiguïté. En conclusion, on peut dire que, dans le cadre général du traitement du signal, les
méthodes temps-fréquence sont les outils les plus aptes à traiter des signaux, dans un environnement
non-stationnaire.
Ce travail a pour principal objectif la familiarisation des ingenieurs avec la problématique des
représentations temps-fréquence qui constituent, comme on a déjà vu, l'outil de base pour le
traitement des signaux dans un environnement non-stationnaire. Pour atteindre cet objectif, cet
ouvrage est structuré en quatre parties principales.
La première est dédiée aux rappels mathématiques et aborde les points suivants :
- La définition des notions mathématiques de base, directement liées à la problématique de
traitement du signal;
- La particularisation de ces notions dans le cadre de la représentation des signaux et l'introduction
des opérateurs qui peuvent être développés dans les espaces des signaux introduits;
- Les éléments de la théorie des matrices qui constituent la forme optimale (du point de vue
implémentation des algorithmes) pour la représentation des signaux ;
- Les notions de base sur les variables et les signaux aléatoires qui sont indispensables lorsqu'on
travaille dans un environnement bruité.
La deuxième partie, "Généralités sur les signaux non-stationnaires", est structurée en cinq
sections :
- dans la première section, on présente brièvement les méthodes de base pour l'analyse des signaux
stationnaires, en insistant sur les méthodes d'analyse spectrale;
- dans la deuxième section on définit le concept de "non-stationnarité" et on exemplifie cette notion
à partir de quelques situation pratiques;
- dans la troisième section on présente les mesures les plus usuelles de la non-stationnarité;
- la quatrième section aborde la présentation des méthodes mono-dimensionnelles pour la
modélisation des signaux non-stationnaires;
- La fin de cette partie, la section 5, à partir des limitations des méthodes présentées ci-dessus et des
limites de la transformée de Fourier, permet de justifier l'intérêt des représentations temps-
fréquence.
transformé de Fourier, qui représente, de point de vue historique, les premières méthodes temps-
fréquence. On va voir que le fonctionnement de ces méthodes est limité par le principe de
Heisenberg, et, par conséquence, on va insister sur la transformée de Gabor, qui représente le meilleur
compromis temps-fréquence.
Dans l'autre partie, même s'il s'agit d'un décalage historique important entre ces deux
approches, on s'appuie sur les représentations temps-échelles : la transformée en ondelettes et ses
dérivées. A la fin de ce chapitre on mettra en évidence les limitations des méthodes linéaires actuelles
et, on présentera les perspectives qui peuvent être envisagée.
Enfin, le dernier chapitre concerne "Les représentations temps-fréquence bilinéaires", et,
notamment, celles qui appartiennent à la classe de Cohen. Après la présentation détaillée de tous les
aspects importants liés de ces outils, on étudie quelques méthodes pour l'amélioration des
performances de celles-ci.
Les exemples qui serviront de support pour les explications afférentes sont obtenus par des
simulations réalisées sous Matlab, en utilisant le "Didacticiel", qui est un produit conçu par le
"Laboratoire de Traitement du Signal" de l'ENSIETA.
Tous les chapitres s’achévent par une série d’"Exercices et de Problèmes". Ils constituent un
moyen efficace pour la compréhension des notions on présentées et donnant des exemples suggestifs
sur la signification physique de ces notions.
2
RAPPELS MATHEMATIQUES
Dans ce chapitre nous allons présenter les notions mathématiques de base qui seront utilisées
au cours de ce travail. Le but est de réaliser un rappel sur les concepts mathématiques sur lesquels est
basée la théorie des représentations temps-fréquence; pour des détails envisageant l'entière
problématique, les démonstrations des théorèmes et propriétés etc, le lecteur est invité de consulter
les références bibliographiques données à la fin du chapitre.
Ce paragraphe expose les éléments mathématiques basiques qui sont utilisés pour
l'introduction des notions suivantes. On note par H un espace linéaire (ou vectoriel), associé à un
produit scalaire.
Une norme • est une application H → R + (où R+ représente l'ensemble des nombre réels)
qui associe à chaque élément f ∈ H une quantité positive réel f . Pour x, y∈ H et a∈ C, une norme
doit satisfaire les propriétés suivantes:
1. Positivité : x ≥ 0 et x = 0 ⇔ x = 0
2. Multiplication par un scalaire : ax = a ⋅ x
3. L'inégalité du triangle : x + y ≤ x + y .
Par définition, le produit scalaire •,• est une application H × H → C qui satisfaite les
conditions:
1. ax + by , z = a x, z + b y , z ,
*
2. x, y = y, x
2
3. x, x = x
pour tout (x, y, z) ∈ H3 et (a, b)∈ C2 .
Si x, y = 0 on dit que les vecteurs x et y sont orthogonaux.
Une conséquence de ces propriétés est que le produit scalaire satisfait l'inégalité de Cauchy-
Schwarz:
x, y ≤ x ⋅ y (2.1)
Cette notion, directement liée au concept de norme, permet de définir tous les espaces
mathématiques utilisés en traitement du signal. Si on considère x n ∈ H une séquence définie en H on
Les espacés de Hilbert sont les espaces les plus intéressants en traitement du signal. D'une
manière intuitive, la notion d'espace de Hilbert peut être vue comme la généralisation de l'espace
Euclidien tri-dimensionel, par l'extension des concepts suivants: la distance (norme) et l'angle
(produit scalaire). Mathématiquement, l'espace de Hilbert H est un espace vectoriel complet, normé
qui est associé à un produit scalaire.
Les espaces de Hilbert particuliers et leurs significations physiques sont, par exemple :
L1 (R) représente l'espace des signaux absolument intégrables, dans lequel la norme d'un
élément f∈ L1 (R) est définie par :
∆ ∞
f = ∫ f (t ) dt < ∞ (2.2)
−∞
Pour les fonctions f∈ L1 (R) on peut définir la transformée de Fourier (TF) selon:
∞
fˆ (γ ) = ∫ f (t )e
− j2πγ t
dt (2.3)
−∞
L2 (R) représente l'espace des signaux à l'énergie finie, dans lequel la norme d'un élément f∈
2
L (R) est définie par :
1/ 2
∆ ∞
f = ∫ f (t ) dt
2
<∞ (2.4)
−∞
Dans le cadre du traitement du signal, le carré de la norme peut être vue comme l'énergie du
signal.
Dans cet espace, le produit scalaire de deux fonctions f, g ∈ L2 (R) est défini par :
∞
f,g = ∫ f (t )g (t )dt
*
(2.5)
−∞
cette seule période. On peut aussi définir l'espace L2 (-T/2,T/2) des fonctions à énergie finie sur [-
T/2,T/2]. Dans cet espace, la norme d'un signal f∈ L2 (-T/2,T/2) est défini par :
1/ 2
∆ T / 2
f = ∫ f (t ) dt
2
<∞ (2.6)
−T / 2
TF(R) représente l'espace des signaux à énergie finie décroissant plus rapidement en temps (et
en fréquence) que la fonction 1/t (1/γ).
∆
{
TF ( R) = f ∈ L2 (R ) : f (t ) < C (1 + t )
− (1+ ε )
et fˆ (γ ) < C(1 + γ )
− (1+ ε )
}
, pour C < ∞, ε > 0 (2.7)
l 2 (Z) est l'espace de séquences numériques d'énergie finie définies sur l'ensemble des nombres
entiers. La norme d'un élément c∈ l 2 (Z) vaut :
c
2
∆
(
= ∑ cn )
2 1/ 2
<∞ (2.8)
Les espaces des signaux à bande limitée (introduis par Paley and Wiener, [2]) sont les espaces
de fonctions à un support compact (limité et fermé) dans le domaine fréquentiel. Pour Ω>0, l'espace
PWΩ est défini selon:
∆
{
PWΩ = f ∈ L2 ( R) : suppremum fˆ ⊆ [− Ω , Ω] () } (2.9)
Par définition, un opérateur linéaire est une application T qui transforme un espace Hilbert H1
dans un autre espace H2 . On dit que T ∈ B(H1 ,H2 ), où B(.,.) est l'espace de Banach des opérateurs
linéaires. La norme d'un élément T∈ B(H1 ,H2 ) est définie par :
Tx H
T = sup 2
<∞ (2.10)
x∈H1 x H
1
Les opérateurs que généralement il est souhaitable de les avoir verifiées sont :
1. Le noyau d'un opérateur T∈ B(H1 ,H2 ) est la fonction f∈ H1 pour laquelle Tf=0.
2. T est une application injective si Tf=Tg si et seulement si f=g.
3. T est une application surjective si T(H1 )=H2 (quelque soit l'élément de H1 il existe un élément
associé par T , défini en H2 .
4. T est une application bijective si elle est injective et surjective.
5. T admet un opérateur invers T-1:H2 →H1 si T est bijective. Dans ce cas, l'opérateur inverse est
défini par T-1g=f si g=Tf.
6. T est continue si x n → x implique Tx n → Tx.
7. L'adjoint de T est l'opérateur identité T* : H2 → H1 qui satisfait la condition
Tf , g H
= f ,T * g . T est auto-adjointe si T* =T.
2 H
1
8. T est un isomorphisme topologique si T est bijective, T∈ B(H1 ,H2 ) et T-1∈ B(H2 ,H1 ).
9. T est une isométrie si ∀ f ∈ H1 , Tf H = f H .
2 1
10. T est un opérateur unitaire s'il est linéaire, bijectif et isométrique. Si T est unitaire, alors T-1=T* .
Par la suite, on présente les opérateurs unitaires largement utilisés en traitement du signal. On
donne les expressions de ces opérateurs pour une fonction arbitraire f∈L2 (R) et a, b et s≠0 - des
nombre réels.
∆
1. L'opérateur de translation τ a : L2 (R ) → L2 (R ), (τ a f )(t ) = f (t − a ) (2.11)
∆
2. L'opérateur de modulation eb : L2 (R ) → L2 (R ), (eb f )(t ) = e j 2πbt f (t ) (2.12)
∆
3. L'opérateur de dilatation D s : L2 (R ) → L2 ( R), (D s f )(t ) = s f ( st )
1/ 2
(2.13)
Dans les applications pratiques il est souhaitable de travailler avec des opérateurs unitaires,
car ceci nous assure la conservation de l'énergie dans le domaine transformé.
On suppose une séquence des fonctions {φ n }⊆ H . Dans la section suivante on décrit les
concepts plus importants qui sont associés à la représentation d'un signal quelconque comme une
combinaison linéaire de ces fonctions.
1. Par définition, l'envergure linéaire, env{φ n }, de l'ensemble des fonctions {φ n } est la suite de toutes
les fonctions générées par la combinaison linéaire des fonctions {φ n }:
N
env{φ n } = ∑ c nφ n : c n ∈ C, N ∈ Z (2.14)
n=1
_________ _________
2. {φ n } est dense dans H si env{φ n } = H , où l'expression env{φ n } contient les limites de la forme
N
lim ∑ c n φ n .
N→∞ n =1
3. {φ n } est complète dans H si ∀n, f , φn = 0 si et seulement si f=0.
4. {φ n } est orthonormale dans H si ∀ m , n , φ m , φ n =δ m ,n .
5. {φ n } est une base de Schauder (ou simplement une base) pour H si pour chaque f∈ H il existe une
séquence unique {cn }∈ C pour laquelle f = ∑ cnφ n .
6. Un ensemble orthonormal {φ n } représente une base orthonormale pour H si pour chaque f∈ H il
existe une séquence unique {cn }∈ C pour laquelle f = ∑ cnφ n . Dans ce cas, on peut également
écrire f :
ENSIETA, Janvier 2002 8
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
2. Rappels mathématiques
f = ∑ f ,φ n φ n (2.15)
n
et
2 2
f = ∑ f ,φ n (Egalité de Parseval) (2.16)
n
7. Une base {φ n } est une base de Riesz pour H si elle est liée à une base orthonormale par un
isomorphisme topologique T : H→ H, φ n = Ten , avec {en } - base orthonormale pour H.
Un ensemble important de fonctions pour le traitement du signal est constitué par les
exponentielles harmoniques complexes {ej2πnt}. En effet, toute la théorie de Fourier est batie sur la
décomposition d'un signal dans cette base.
Une idée dominante et utile en mathématique est que les fonctions (les signaux, dans notre
contexte) peuvent être décomposées en série de fonctions atomiques élémentaires.
f = ∑ c nφn (t ) (2.17)
La problématique de la représentation d'un signal sur une base orthonormale est reductrice
pour certaines applications. Une base orthonormale n'est intéressante que grâce à l'unicité de
l'ensemble des coefficients, mais aussi du fait que les coefficients de projection quantifient
directement la contribution de chaque fonction de base sur la structure du signal. Le fait que {φ n }
forme une base orthonormale (BON) pour H implique que c=Lf représente le choix unique des
coefficients qui satisfont (2.17) pour une fonction f ∈ H donnée.
En synthèse, une séquence orthonormale des fonctions {φn } ⊆ H est une base orthonormale
pour H si pour chaque f ∈ H il existe une sequence unique {cn } ∈ H telle que la relation (2.17) soit
verifiée.
Soit f, g ∈ H et {φ n } une base orhtonormale. On note par L(H) le domaine de L défini par :
∆
L (H ) ={Lf : f ∈ H } (2.19)
2 2 2
f H
= ∑ f , φn = Lf L (H )
(2.20)
*
f , g = ∑ f ,φ n g ,φ n = Lf , Lg L( H ) (2.21)
La reconstruction
f = L* Lf = ∑ f , φ n φ n (2.22)
Une base de Riesz est une généralisation d'une base orthonormale dans le cas où les
conditions de norme unitaire et de l'orthogonalité des éléments de la base sont relaxées. En effet, la
particularité dominante d'une base de Riesz {φ n } est le fait qu'elle est liée à une base orthnormale par
un isomorphisme topologique T : H → H tel que φ n =Tun , où {un } est une BON pour H. Par
l'inversabilité de T, il existe une autre base {ψ n } pour H avec laquelle {φ n } est bi-orthogonale :
φ n ,ψ m = δ m, n . Dans ce cas, on dit que {ψ n} et la base duale de {φ n}.
Une base de Riesz est donc une base obtenue à partir d'une base orthonormale, par
l'application d'un isomorphisme topologique.
La reconstruction à partir d'une base de Riesz est établie par le théorème suivant.
Theoreme 2.1.
∀ f ∈ H , f = TT *( ) −1 *
L ( Lf ) (2.24)
a. Par définition ([5]), une séquence {φn } ⊆ H est un cadre ("frame") pour H s'il existe deux
limites A,B>0 telles que
2 2 2
∀ f ∈H, A f ≤ ∑ f ,φ n ≤B f (2.25)
n∈Z
∑ f ,φ n (t ) φ n (t ) + R f (t )
2
f (t ) = (2.26)
A+ B n
Ce résultat est basé sur quelques propriétés des cadres [2,5], exprimées dans le théorème
suivant.
Théorème 2.2.
(a) Si {φn } ⊆ H est un cadre avec les limites A, B alors S est un isomorphisme topologique qui
{ }
admet l'inverse S-1 ; de plus, S −1φ n est aussi un cadre avec les limites B-1 et A-1 et:
{ }
(b) Soit {φn } ⊆ H , soit L : F → l2 (Z) défini par Lf = f , φ n . Si {φ n } est un cadre alors S=L* L,
où L* est l'adjoint de L. (la demonstration de ce théorème est donnée en [5])
∞ B− A ∞
∫ R f (t ) dt ≤ ∫ f (t ) dt
2 2
(2.28)
−∞ B + A −∞
On observe clairement que l'importance de résidu est réduite lorsque B-A tend vers 0.
Néanmoins, il existe des situations où il souhaitable que ce terme soit important, puisuq'il apporte un
certain degré de redondance, propriété souhaitée dans des applications comme la classification des
signaux (voir le paragraphe sur la transformation en ondelettes supra-complète). Il s'agit alors d'un
compromis concernant le choix de A et B, qui peut être résolu par l'utilisation de la matrice de
corrélation du cadre.
Théorème 2.3.
Dans le cas pratique, cette matrice n'est pas inversible, ce qui contraient à définir la pseudo-
inverse. Il existe plusieurs façons de définir cette matrice. Le théorème suivant décrit une de ces
méthodes.
Théorème 2.4.
est la pseudo-inverse de R.
Dans ces conditions, il est possible de déterminer les meilleures limites du cadre qui nous
assurent, à la fois, un résidu d'énergie réduite et un degré de redondance satisfaisant. Ces valeurs sont
données par le théorème suivant.
Soit {φ n } un cadre pour l'espace de Hilbert H avec les meilleures limites A et B du cadre, et la
matrice de corrélation du cadre, R. Ces deux notions sont liées entre elles par les relations :
−1
A = R+ ;B= R (2.31)
v i (t )
ϕ i (t ) =
v i (t )
(2.32)
a m1 am 2 L a mn
où les aij sont des scalaires. Alors la transposée AT de A est la matrice dans laquelle la valeur en i,j est
aji.
Par la suite, on définit les opérations de base associées aux matrices. Soit A=(aij), B = (bij)
deux matrices m × n, c ∈ C . On définit
i) la somme de deux matrices : (A+B) = (aij+bij)
ii) le produit d'une matrice et d'un scalaire : cA = (caij)
Par ailleurs, le produit de deux matrices A=(aij)mx n et B=(bij) n x k est défini par la matrice
C=(cij)m x k :
n
c ij = ∑ a iυ bυj (2.35)
υ =1
Les propriétés de base du produit matriciel sont présentées dans le théorème suivant.
Par définition, la matrice carrée A est dite inversible, s'il existe une matrice B avec la
propriété :
AB=BA=I (2.36)
Définition (Permutation)
Soit n ∈ N
i) Une fonction bijective σ : {1,2 ,..,n} → {1,2,.., n}est appelée une permutation sur les
entiers de 1 à n.
1 2 L n
σ = = (σ 1 σ 2 L σ n )
σ (1) σ (2 ) L σ (n )
(2.37)
iv) On dit que σ est pair ou impair selon s'il existe un nombre pair ou impair de couples (i,k)
pour lesquels i>k, mais où i précède k par la transformation σ.
Définition (Déterminant)
i) det(A)=det(A T)
ii) det(I)=1
iii) det(a1 ,…,ak,…,al,…,an )= - det(a1 ,…,al,…,ak,…,an )
iv) det(a1 ,…,λak,,…,an )= λdet(a1 ,…,ak,…,an )
v) det(a1 ,…,a'k,+a"k,…,an )= det(a1 ,…,a'k, ,…,an )+ det(a1 ,…,a"k,…,an )
vi) Le déterminant est une fonction multiplicative, pour toutes les matrices n x n A et B on a
det(AB)=det(A)det(B) (2.40)
Soit A une matrice carrée n x n. Mij décrit la sous-matrice carrée (n-1 x n-1) de A obtenue en
effaçant la i-ème ligne et la j-ème colonne.
i) det(Mij) est appelé mineur de l'élément aij de A.
ii) Aij = (− 1)
i+ j
det(M ij ) est appelé le cofacteur de aij.
A partir de ces notions, on peut définir la matrice adjointe de A par la transposée de la matrice
des cofacteurs des éléments aij de A, notée adjA. En [7], il est montré que l'adjointe de la matrice A
(notée également avec A* ) satisfait la propriété :
Une application importante de la théorie des matrices est la résolution des systèmes
d'équations linéaires [7]. Le résultat suivant est très important dans ce contexte lorsqu'il fournit une
méthode élégante pour la résolution de ce système.
Soit A une matrice n x n telle que detA≠0. Alors le système suivant Ax=b, ∀ b∈ Rn a une
unique solution donnée par x=A-1b, i. e.
Ax = λx; x ≠ 0 (2.44)
x est appelé vecteur propre de A de valeur propre λ. Le scalaire λ est appelé valeur propre associée à
x.
Dans les application pratiques on a souvent l'intérêt d'avoir une matrice diagonale, due à
l'exploitation légère d'une telle matrice. Par définition, une matrice est diagonalisable si et seulement
s'il existe une matrice invertible P n x n telle que P-1AP soit une matrice diagonale.
Soit A une matrice avec les valeurs propres λ1 ,λ2 ,…,λn . S'il existe un ensemble indépendant
{x 1 ,x2,…,x n } de vecteurs propres, alors A est diagonalisable.
Si x i est un vecteur propre associé à λi, et P=(x 1 ,x 2,…,x n ), alors P est inversible et diagonalise A.
Une autre propriété importante de l'ensemble des valeurs propres d'une matrice est celle
d'indépendance des vecteurs propres associés lorsque les valeurs qui composent cet ensemble sont
distincts.
1. A est dite orthogonale si AAT=ATA=I. Autrement, A est orthogonale si et seulement si les vecteurs
lignes de A sont orthonormaux.
2. A est symétrique si A=AT.
3. A est une matrice hermitienne si A=AH (H est l'opérateur hermitien : aij=a* ji). Pour les matrices
réelles la condition pour qu'elle soit hermitienne est équivalente à la symétrie de cette matrice.
Dans le cas complexe, A est hermitienne si et seulement si x HAx est réel, quel qu'en soit x -
complexe.
4. Une matrice A avec la forme suivante est dite tridiagonale :
a1 b1 L 0
b a2 O M
A= 1
M O O b n−1
0 L bn −1 a n
5. Une matrice A est dite de Toeplitz si elle a des diagonales constantes : aij ne dépend que de (i-j).
6. Une matrice A est dite unitaire si AHA=I. Pour les matrice réelles, cette notions est équivalente à
celle d'orthonormalité. Une matrice est orthonormale si et seulement si ses colonnes sont
orthormales.
Pour plus de détails concernant la théorie des matrices, voir la référence [7].
Dans les application on est souvent confronté avec des problems d’optimisation (basés
principalement sur de methodes de gradient) ou de resolution des systèmes d’équations linéaires ou
quadratiques. Ainsi, les formules de dérivation suivantes nous permettent de faciliter les algorithmes
correspondents :
∂b T x
=b
∂x (2.45)
∂x T Ax
= 2Ax
∂x
avec l’hypothese de symmetrie de la matrice A.
Dans la nature, les signaux sont toujours perturbés, soit à cause de sources
environnementalles, soit à cause du facteur humain. Par conséquence, ces signaux ont un caractère
aléatoire, et, leur traitement sera plus performant lorsqu'on possèdera des informations sur la nature
de la perturbation. C'est la raison pour laquelle on présente brièvement les notions de base concernant
les signaux aléatoires; ceci permettra d'aborder toutes les applications pratiques où l'existence du bruit
doit être prise en compte.
Une variable aléatoire (v.a) réelle est une application X de l'espace des épreuves Ω dans R.
On appelle fonction de répartition ou de distribution de la variable aléatoire X, la fonction
d'une variable Fx ( x ) définie par :
F X ( x) = P ( X ≤ x ) (2.46)
∞
• FX ( +∞) =
∫f
-∞
X (u )du =1 (2.48)
b
• P[a ≤ X ≤ b] =
∫f
a
X (u )du = FX (b ) − FX (a ) (2.49)
Par définition, la variance d'une v.a. est le moment centré d'ordre 2. On peut donner les
expressions de la variance dans le cas d'une v.a. continue.
+∞
Var ( X ) =
∫ -∞
( x − E ( X ))2 f X ( x) dx (2.50)
{ }
ϕ X ( u) = E e juX (2.52)
Cette fonction caractéristique existe toujours pour toute valeur de u. Dans le cas où X est une
v.a. continue, ϕ X ( u) est directement liée à la transformée de Fourier de f X ( x ) , notée TFX (. ) .
{ }
E e juX = TFX − 2π
u
[ ] (2.53)
Vecteurs aléatoires
{ } ∫∫ −∞ xr y s f XY (x, y) dx dy
+∞
mrs = E X r Y s = (2.57)
+∞ +∞
m10 = E{ X} =
∫−∞
x f XY ( x , y ) dx dy =
∫x f
−∞
X ( x ) dx (2.58)
+∞
m01 = E{Y} =
∫y f
−∞
Y ( y ) dy (2.59)
Il existe, ensuite trois moments d'ordre deux non centrés et trois moments centrés.
+∞ +∞ +∞
{ } ∫−∞ ∫−∞
m20 = E X 2 =
∫−∞ x2 f X (x) dx
x 2 f XY ( x , y ) dx dy = (2.60)
+∞
m02 = E {Y 2} =
∫−∞ y2 fY ( y) dy (2.61)
+∞ +∞
m11 = E{ XY} =
∫ ∫ xy f
−∞ −∞
XY (x , y ) dx dy (2.62)
cov ( X , Y )
ρ (X ,Y) = (2.65)
σ X σY
si a > 0 ρ( X , Y ) = 1
(2.66)
si a > 0 ρ( X , Y ) = -1
Quand ρ( X , Y ) = 0 on dit que les v.a. X et Y sont non corrélées. L'indépendance est une
condition suffisante de non corrélation; ce n'est pas une condition nécessaire, on peut donc avoir :
E ( X , Y ) = E ( X ) E (Y ) sans que X et Y soient indépendantes.
a sa fonction caractéristique qui tend vers la fonction caractéristique de la v.a. centrée normale.
Ce théorème permet de comprendre pourquoi le caractère aléatoire gaussien est le plus
répandu physiquement. En effet, souvent une grandeur aléatoire observée est la somme d'un très
grand nombre de v.a. faibles de loi quelconque mais identique.
En particulier :
f X ( x, t ) = f X ( x , 0) = f X ( x) indépendante du temps (2.70)
f X ( x1, x2 , t1, t 2 ) = f X ( x1, x2 ,0, t2 - t1) = f X (x1, x2 , τ ) avec τ = t2 - t1 (2.71)
Dans la distribution du 2nd ordre d'un processus aléatoire stationnaire seul intervient l'écart
entre les deux instants d'observation.
La stationnarité d'ordre deux, dite encore stationnarité au sens large ou encore stationnarité
faible est la stationnarité pour les moments d'ordre 1 et 2. Elle se traduit par :
La stationnarité au sens large n'implique pas la stationnarité stricte. Seuls les processus
aléatoires entièrement définis par la caractérisation d'ordre deux sont obligatoirement stationnaires au
sens strict, s'ils le sont au sens large. C'est le cas en particulier pour les processus gaussiens.
Ergodicité
Pour un processus stationnaire, l'ergodicité d'une moyenne entraîne l'égalité des moyennes
correspondantes d'ensemble et temporelle. C'est-à-dire que l'on pourra écrire.
X = E { X} (2.73)
+∞ T0
∫ ∫ x(t ) dt
1
m1 = E { X ( t )} = x f X ( x , t ) dx = lim (2.75)
−∞ T0 →∞ 2 T0 − T0
+∞ +∞
et m11( t , t − τ) =
∫ ∫x x
−∞ −∞
1 2 f X ( x1, x2 , t , t − τ) dx1 dx2 (2.76)
T0
∫
1
= ΓXX ( τ) = lim x (t ) x *(t − τ) dt (2.77)
T0 →∞ 2 T0 − T0
Γ XX ( τ) est la fonction d'autocorrélation du processus x(t). Elle est un outil majeur de l'étude
des processus stationnaires d'ordre deux ergodiques. Ses propriétés sont directement liées à celle de la
fonction covariance dont elle est issue. Pour l'exploiter, on choisit en général de centrer le processus,
ce qui est particulièrement simple du fait de la stationnarité (il suffit de retrancher à x(t), m1 qui est
une constante)
Propriétés caractéristiques des processus stationnaires d'ordre deux
• La fonction d'autocorrélation est maximale en 0 : Γ X (τ ) ≤ Γ X (0) .
• La fonction d'autocorrélation est hermitienne. ΓX* ( − τ) ≤ ΓX ( τ) En particulier si x(t) est réel,
Γ X ( τ) est réelle et paire.
• En général, on a lim ΓX ( τ) = m = E { X } . Cela veut dire que pour τ assez grand, les
2 2
τ→∞
*
v.a. X(t) et X ( t - t ) tendent à être décorrélées.
• La densité spectrale de puissance est la transformée de Fourier de la fonction
d'autocorrélation :
+∞
γ X ( ν) = TF {ΓX ( τ)} =
∫−∞
ΓX ( τ) e− 2πj ντdτ (2.78)
• La densité spectrale est une fonction réelle, positive non nulle. Si X(t) est réel, γ X ( ν) est
paire. Par ailleurs, γ X ( ν) étant réelle, on en déduit que Γ X ( τ) est réelle et paire et donc :
+∞
γ X ( ν) =
∫Γ −∞
X ( τ) cos 2π ντ dτ (2.79)
Processus gaussiens
Un processus aléatoire est dit gaussien si quelle que soit la suite des instants t1, L , t n et quel
que soit n, la variable aléatoire à n dimensions ( X ( t1) - - - X ( t n) ) est gaussienne.
Nous rappelons qu'une variable aléatoire réelle de dimension n est gaussienne si sa densité de
probabilité est donnée par :
1 1
p ( x1,L , xn ) = exp − ( X − M )t C −1 ( X − M ) (2.80)
(2 π) (det C)
n/2 1/2
2
où :
- X désigne le vecteur colonne de composantes : x1,L , xn ,
-M désigne le vecteur moyenne de composantes : m1 = E{X (t1)} , L , m n = E{X (t n )} ,
{
- C désigne la matrice de covariance d'éléments cij définie par : cij = E X (ti ) X (t j ) - mi m j . }
Nous notons que C est une matrice hermitienne : cij = c*ji .
Les processus aléatoires gaussiens jouent un rôle fondamental en pratique. La loi de Gauss
s'introduit en effet naturellement dans de nombreux phénomènes physiques qui se présentent
macroscopiquement comme la somme de phénomènes physiques décorrélés (théorème central limite).
Un exemple important est donné par le bruit thermique. Ce bruit provient des fluctuations dues à
ENSIETA, Janvier 2002 21
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
2. Rappels mathématiques
l'agitation thermique des particules élémentaires de tout système physique (fluctuations de tension
aux bornes d'une résistance). Par ailleurs les calculs se simplifient très souvent grâce à l'hypothèse
gaussienne. En particulier les propriétés suivantes sont établies :
a) Un processus aléatoire gaussien est défini entièrement par la donnée des moments du
premier et du second ordre. En effet le vecteur moyenne M ainsi que la matrice de
covariance C qui interviennent dans la loi temporelle peuvent être calculés pour toutes
suites t1, L , t n à partir des fonctions mX (t) et ΓX (t1, t 2 ) . Il vient :
M t = ( mX ( t1), L , mX (t n )) (2.81)
Cij = Γ X ( ti , t j , ) - m ( ti ) m( t j ) (2.82)
b) Un processus aléatoire gaussien stationnaire au sens large est stationnaire au sens strict,
puisque la loi temporelle est complètement caractérisée par ses deux premiers moments.
D'autre part toutes les composantes du vecteur moyenne sont égales. Enfin la matrice de
covariance prend une forme très particulière appelée matrice de Toeplitz, dans laquelle les
valeurs qui interviennent dans les lignes parallèles à la diagonale principale sont égales.
c) La décorrélation entraîne l'indépendance.
d) Il est aisé de montrer que toute combinaison linéaire finie de v.a. gaussiennes
indépendantes est gaussienne. Nous admettrons la propriété fondamentale que le caractère
gaussien se conserve dans toute transformation linéaire et donc par conséquent par filtrage
linéaire.
e) Dans la modélisation des signaux aléatoires, nous rencontrons souvent de pair le caractère
blanc et le caractère gaussien. Insistons sur le fait qu'il n'y a pas d'implication entre ces
deux propriétés.
f) Enfin, énonçons, sans démonstration, un résultat pratique important sur les v.a. gaussiennes.
Soient quatre v.a. X1, X2, X3, X4, gaussiennes et centrées, nous avons alors :
E ( X i X j X k ) = 0 ∀ (i , j , k ) ∈ (1,2,3,4)
et E ( X1 X 2 X 3 X 4) = E ( X1 X2 ) E ( X 3 X 4 ) + E ( X1 X 3) E ( X 2 X 4 ) + E ( X1 X 4 ) E( X 2 X 3) .
Processus blanc
On appelle bruit blanc, un processus aléatoire b(t) dont le spectre de puissance est constant sur
toutes les fréquences.
On en déduit alors que sa fonction d'autocorrélation Γbb ( τ) est :
N
Γbb ( τ ) = TF −1 ( γ b ( ν)) = 0 δ( τ) (2.83)
2
Rapport signal/bruit
Tout signal noyé dans du bruit b(t) s'écrira classiquement sous la forme de la somme de deux
signaux :
r (t ) = s(t ) + b( t ) (2.84)
Le rapport signal à bruit permet de chiffrer si le bruit est "important" par rapport au signal ou
vice-versa.
Il peut être défini comme le rapport entre la puissance moyenne du signal sur la puissance
moyenne du bruit.
Psignal
R= (2.85)
Pbruit
2.5. Conclusions
Références
[1] A. Poularikas (Editor-in-Chief) - "The transforms and applications handbook", CRC Press & IEEE Press, ISBN
0849383420, 1996
[2] A. Theolis – “Computational Signal Processing with Wavelet ”, Birkhauser Press, Boston, 1998
[3] I. Gohberg, S. Goldberg - "Basic Operator Theory", Birkhauser Press, Boston, 1980
[4] S. Mallat – “A Wavelet Tour of signal processing”, Academic Press, 1998.
[5] R. Duffin, S. Schaeffer - "A class of nonharmonic Fourier series", Trans. Amer. Math. Soc., 72:341-366, 1952.
[6] A. Papoulis - "Signal Analysis", New York, NY. McGraw-Hill, 1977.
[7] G.H. Golub, C. Van Loan - "Matrix Computations", The John Hopkins University Press, ISBN 0-8018-5414-8, 1996
[8] M. Charbit - "Eléments de théorie du signal : les signaux aléatoires", Ellipses, 1990
EXERCISES ET PROBLEMES
translation ;
b. En utilisant la relation de Parseval et l’expression obtenue antérieurement, montrer que
)
( f * g ) ^ = f ⋅ g)
4. (Les espaces de Hilbert) Soit l’espace de Hilbert l2 (J) ; J={1,2}. Un opérateur T: l 2 ( J ) → l 2 ( J )
peut être écrit comme :
a b
T = ; a , b, c , d ∈ C
c d
a. Calculer T ;
b. Trouver les conditions qui doivent être imposées sur a,b, c, d pour que :
i) T ∈ B( l 2 ( J ) , l 2 ( J ) ) ;
ii) T soit unitaire ;
iii) T=T* .
5. (Bases Orthonormales) Soit l’ensemble des fonctions exponentielles complexes { e k / N ( n)} n=0,…,
N-1 et k=0,…, N-1.
a. Quel est l’espace d’appartenance de cet ensemble ?
b. Montrer que cet ensemble est orthogonal.
c. Quel terme faudrait-il rajouté pour que l’ensemble soit orthonormal ?
d. Quelle est-elle l’utilisation la plus connue de cet ensemble ?
8. (Théorie des cadres) Prouver qu’une base orthonormale pour H est un cadre étroit et exact pour
H. Quelle est l’expression des limites du cadre dans ce cas ?
9. (Théorie des cadres) Prouver que l’union de N bases orthonormales pour H constitue un cadre
étroit et non-exact pour H.
ENSIETA, Janvier 2002 24
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
2. Rappels mathématiques
10. (Théorie des cadres) Soit {un } une base orthonormale. Montrer que l’ensemble {an un } , où {an }
est une séquence des scalaires qui satisfaite 0 < A ≤ a 2n ≤ B < ∞ , est un cadre non-étroit et exact
pour H.
φ ( t ) = ∫ cos(πγ / 2) ⋅ e j 2πγt dγ
−1
Prouver que :
a. {τ n φ} est une séquence orthonormale en L2 (R)
b. {τ φ} n’est pas une base orthonromale en L2(R)
n
On considère le cas de transmission d'un signal MDP4 (modulation discrète de phase à quatre
états) :
π
s k (t ) = Ah (t ) cos 2πf 0 t + ϕ 0 + (k − 1) ; k ∈ {1,2,3,4}
2
où h(t) est la fonction porte :
1, t ∈ [0, T ]
h (t ) =
0, sinon
a) Déterminer la dimension minimale de la base orthonormale nécessaire pour représenter un signal
MDP4.
b) Déterminer, à partir de l'expression d'un signal MDP4 et en utilisant le processus
d’orthogonalisation de Gramm-Smidt, la forme des fonctions qui compose la base orthonormale
de dimension minimale.
14. (Théorie des matrices) Soit A=(aij)n x n une matrice symétrique avec les valeurs propres distinctes
(λ1 ,λ2 ,… λn ). Soit Q une matrice orthogonale qui diagonalise A. Alors le changement de
n n
coordonnées x=Qy transforme ∑ aij xi x j en ∑ λi y i .
2
i , j =1 i =1
16. (Théorie des matrices) On considère la transformée de Fourier discrète (TFD) d'une séquence x(n)
donner par l'expression suivante :
2π kn
∆ N −1 −j
X [k ] = ∑ x(n )e N ;k = 0,..., N − 1
n =0
a) Ecrire cette expression sous forme matricielle X=Fx.
b) Calculer les matrices J=F*F=F2 et K=F*F*F*F=F 4 .
c) Compte tenu de ces résultats, calculez les valeurs propres de F. Quelle observation peut-on faire
sur la structure de l'ensembles des vecteurs propres de F?
a) Dans le cas continu, une v.a. est dite à d.d.p uniforme si sa d.d.p f X ( x ) est constante dans
l'intervalle [ a , b] . On en déduit :
1
b−a a≤x≤b
f X ( x) =
0 ailleurs
Calculer E[X], Var[X], σX pour cette distribution.
b) La v.a. X est une variable continue suivant une loi de Gauss si:
( x− m)2
1 −
f X ( x) = e 2σ2
2 πσ 2
18. (Variables aléatoires) Supposons X ~ N (0 ,1) (X est une variable aléatoires de loi gaussienne
centrée et de variance unité). Trouver la densité de probabilité f Y(y) de la variable aléatoire Y=g(X)
si :
(a) g (x ) = x ; (b) g ( x ) = e − x u (x )
19. (Stationnarité au second ordre) On considère le signal aléatoire x (t ) = a ⋅ cos (ωt + ϕ ) où a est
une variable aléatoire de moyenne ma , de variance σ 2 a , ω est une constante et ϕ est une variable
aléatoire uniformément répartie sur [0,2π] et supposée indépendant de a.
a) Calculer la valeur moyenne de x(t).
b) Calculer la fonction d'autocorrélation γ xx (t , t − τ ) de x(t). x(t) est-il stationnaire au sens large ?
3
GENERALITES SUR LES SIGNAUX NON-STATIONNAIRES
Lorsqu’il s’agit de traiter des signaux stationnaires, les outils disponibles sont en fait
nombreux et de nature assez disparate. Ceci est dû à la multiplicité des types de signaux
susceptibles d’exister dans la nature. Chaque outil est le plus souvent adapté à une situation et est
introduit de manière ad hoc. Cette disparité rend difficile la mise en œuvre et les comparaisons
entre les approches. La difficulté est accrue par le fait que les buts poursuivis peuvent être
relativement différents.
Sans prétendre couvrir tous les cas, il peut être utile de distinguer deux grandes familles
d’outils :
Il est clair que ces deux points de vue sont complémentaires : une meilleure représentation
d’un phénomène pouvant, par exemple, servir à mieux choisir les descripteurs sur lesquels se
basera une décision.
Plutôt que de présenter une classification exhaustive de ces méthodes (se reporter à [11],
[12]), on choisira ici de rappeler les principales structures. On présente tout d'abord les outils de
représentation temporelle et fréquentielle, et, par la suite, on s'appuyera sur les méthodes d'analyse
spectrale.
Comme affirmé dans le chapitre précédent, un signal peut être vu comme une fonction du
temps. La représentation graphique de cette fonction donne toute l'information nécessaire pour
l'analyse et l'exploitation de celle-ci. Cette représentation graphique est similaire à la
représentation temporelle du signal : toute l'information portée par le signal pourrait être récupérée
grâce à une représentation temporelles. Par exemple, un signal numérique MDA-NRZ (modulation
numérique d'amplitude - non-retour à zéro) a la représentation temporelle suivante :
U Message :
Amplitude
10110001
Temps
-U
Figure 3.1. Représentation temporelle d'un signal
Néanmoins, il y a un grande nombre de raisons (le bruit existant dans les canaux, la
récupération du signal dont on est intéressé dans le mélange des signaux environnementaux, etc)
pour lesquelles ces structures ne sont utilisées que dans la phase finale d'un processus de traitement
ENSIETA, Janvier 2002 27
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
3. Généralités sur les signaux non-stationnaires
du signal, notamment dans celle de l'exploitation de l'information portée par le signal de base. Par
conséquent, la représentation temporelle n'est utilisée qu’en la combinant avec les structures
fréquentielles, basées sur la transformée de Fourier (expression 2.3.). Malheureusement, si la
transformée de Fourier continue (TFC) n'a pas en soi d'inconvénient particulier, les versions qui
doivent être utilisées dans la réalité conduisent parfois à de grandes difficultés (surtout quand il s'agit
d'un système numérique de traitement, ce qu'il en est de plus en plus le cas). Deux contraintes
empêchent l'utilisation de la TFC classique [3]: l'échantillonnage du signal et la limitation de sa
durée. La solution consiste en l'utilisation des approches discrètes et, par la suite, on s'appuiera sur les
méthodes d'analyse spectrale qui représentent l’une des techniques les plus courantes de traitement
des signaux.
On définit alors :
- le biais d’un estimateur par la quantité
B = a - E ( a$ ) (3.2)
- la variance par la quantité
var[ a$ ] = E {[a$ − E (a$)] }
2
(3.3)
Une faible variance indique une faible dispersion des estimations autour de E(â). Un
estimateur converge lorsque le biais et la variance tendent vers zéro si le nombre d’observations N
tend vers l’infini (caractéristiques asymptotiques de l’estimateur). Par exemple, la fonction
d’autocorrélation admet classiquement deux estimées :
N − k −1
Γ$ 0( k ) =
∑x
1
a) N (i) x N (i + k ) , k < N −1 (3.4)
N−k
i =0
Il est évident que cet estimateur est sans biais et on montre de plus qu’il est asymptotiquement
à variance nulle.
1 N − k −1
b) Γ$ 1 ( k ) = ∑ x (i) x N (i + k ) , k < N − 1
N i= 0 N
(3.5)
N−k $
soit : Γ$ 1 ( k ) = Γ0 ( k ) (3.6)
N
k
d’où : E ( Γ$ 1 ( k )) = 1 − Γ ( k ) (3.7)
N
Cet estimateur présente donc un biais, qui décroît lorsque N → ∞ .
Lorsque k << N les estimateurs sont équivalents, par contre lorsque k se rapproche de N le
premier estimateur voit sa variance croître considérablement.
Le second estimateur présente donc moins de risque, ce qui peut paraître paradoxal.
Cet estimateur (simple, encore appelé périodogramme) peut être calculé directement en
élevant au carré la T.F. de la séquence observée que l’on peut calculer par des algorithmes de T.F.R.,
ce qui montre tout l’intérêt de cette approche.
En réalité cet estimateur est bien décevant car biaisé et la variance de l’erreur spectrale ne
décroît pas avec la durée d’observation N. Quelle que soit cette durée, la variance de cet estimateur
reste proportionnelle au carré du spectre cherché.
b) L’estimateur moyenné
On peut alors construire pour chacune des séquences élémentaires une estimation de la D.S.P.,
soit :
γ$ (i ) (v ) =
1 (i) 2
X ( v) où X (Mi) ( v) =
M M ∑x (i )
M (k )e
−2 πjkv (3.11)
et on effectue la moyenne :
K −1
∧
γ m (v ) =
1
K ∑ γ$
i =0
(i)
( v) (3.12)
On reprend la procédure précédente, en appliquant cette fois une fenêtre de pondération (autre
que rectangulaire) sur les données de longueur M. Les nouvelles sections s’écrivent :
x (M
i)
( k ). w M ( k ) = x(wi) ( k ) (3.13)
2
K −1 (i )
∧
∑
1 X w (v )
et l’on calcule : γ w ( υ) = (3.14)
K M
i= 0
On comprend l’intérêt d’un tel estimateur, car s’il ne réduit ni la variance, ni le biais, par
rapport à l’estimateur moyenné et même s’il détériore la résolution il peut réduire, selon la fenêtre
choisie, les effets de lobes secondaires générés par une D.S.P. présentant une dynamique importante.
∧
La formule d’estimation γ w (v ) doit être corrigée, car, par l’application de la fenêtre w M ( k ) ,
nous avons modifié la puissance moyenne de la tranche x (M i)
( k ) . Il convient d’appliquer un terme
M −1
correcteur égal à
1
M ∑w
k =0
2
M ( k ). D’où l’estimateur modifié, tenant compte du facteur de puissance :
2
∧ X w(i) ( v)
∑
M 1
γ w (v ) = M −1 (3.15)
K
∑w
M
2
M (k )
k =0
On notera que ce filtrage introduit une perte en résolution fréquentielle d’autant plus
importante que K est grand, ce qui nous ramène au compromis variance-résolution cité précédemment
Une variante de la procédure de Welch consiste à faire se recouvrir les tranches successives.
Les tranches ne sont évidemment plus non corrélées (même lorsqu’il s’agit d’un bruit blanc) et le
gain espéré en variance n’est plus de 2K pour un recouvrement de 50%.
d) Le corrélogramme
M
γ$ M (v ) = ∑ Γ$
−M
M [k ]e −2π jkv (3.17)
M kn
∑
−2π j
ou bien, par TFD : γ$ M [ n] = Γ$ M [ k ]e 2 M +1 (3.18)
−M
La différence par rapport au périodogramme provient du fait que l’on choisit M<<N
(typiquement M<N/10).
∧
Cela revient à dire que l’on ne conserve, dans la séquence Γ M [ k ] , que les points qui sont
∧
raisonnablement bien moyennés. On détériore ainsi la résolution spectrale de l’estimateur γ M (v )
∧
(effet de la fenêtre implicite d’horizon [ − M ,+ M ] sur Γ M ), tandis que l’on améliore la variance par
rapport au périodogramme.
∧
L’application d’une fenêtre supplémentaire adéquate sur Γ M [ k ] est souhaitable tant pour
éviter les effets des lobes latéraux de la fenêtre implicite évoquée précédemment que pour garantir le
∧
caractère positif de γ M (v ).
Soit un système linéaire, invariant, stable, décrit par une transmittance rationnelle en z:
α 0 + α1 z −1+...+αmz − m
A( z) = (3.19)
1 + β1 z − 1...+βnz − n
et dont l’entrée est constituée par une séquence de nombre non corrélés (c’est à dire un bruit blanc
discret) de variance σ2.
b(k) x(k)
A(z)
Ce modèle, dit tous zéros, est noté M.A. (Moving Average) et correspond à un filtrage (filtre
RIF ou transverse) d’un bruit blanc.
Ce modèle, dit tous pôles, est noté A.R. (Auto Régressif). L’équation générale décrit alors un
processus appelé ARMA. Toutefois, le modèle AR est le plus important d’un point de vue pratique
car il indique comment un signal à l’instant k dépend de manière linéaire d’un passé fini, plus un
terme entièrement nouveau, non corrélé avec le passé et souvent appelé innovation.
L’équation de Yule Walker s’écrit :
n
Γx ( p) = − ∑ β Γ ( p − i) , pour p>0
1
i x (3.25)
L’équation indique qu’à partir d’un rang supérieur à l’ordre du numérateur du modèle ARMA,
il existe une récurrence sur les termes de la séquence d’autocorrélation. Cette récurrence est définie
par les seuls coefficients du dénominateur.
b) L’estimation des paramètres du modèle AR
Un tel signal est décrit par l’équation :
n
x (k ) = ∑ −βi x(k − i) + b(k )
i =1
(3.27)
[]
La matrice Γ est symétrique et a une structure de Toeplitz (voir la section 2.4.).
En supposant les n+1 valeurs de Γ intervenant dans cette matrice connues à l’avance, alors la
détermination les modèles inconnus du modèle AR, (c’est à dire les βi et σ2 ) ne pose pas de
difficultés.
Une solution récursive particulièrement efficace donnée à ce problème est connue sous le nom
d’algorithme de Levinson-Durbin. Outre son efficacité, cet algorithme permet de déterminer l’ordre
adéquat du modèle AR, ce qui est bien utile lorsque celui-ci n’est pas connu a priori.
Il convient de remarquer que pour identifier un modèle AR d’ordre 10 il est nécessaire et
suffisant de connaître les 11 valeurs successives de l’autocorrélation soit { Γx ( 0), Γx (1) L Γx (10) } .
Le modèle AR ainsi identifié fournit ensuite une estimation de la DSP dans laquelle le compromis
variance-résolution ne se pose plus... tandis que l’estimation directe de la DSP par transformation de
Fourier des données { Γx ( 0), Γx (1) L Γx (10) } conduirait à une bien médiocre résolution.
En réalité on ne dispose pas des Γ x (i ) a priori et nous devons les estimer par les estimateurs
décrits au § 2, ce qui suppose l’acquisition d’un nombre d’observations bien plus grand que l’ordre du
modèle AR.
ENSIETA, Janvier 2002 32
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
3. Généralités sur les signaux non-stationnaires
L’algorithme de Levinson met en évidence le fait que l’erreur de prédiction est une fonction
non croissante de l’ordre qui ne possède pas à proprement parler de minimum absolu permettant de
sélectionner un ordre optimal qui serait associé à la plus petite erreur de tous les modèles possibles.
Un choix courant est le critère dit FPE (Final Prediction Error) d’Akaike qui s’écrit :
N+p 2 2p
FPE ( p) = σ ( p) = σ2 ( p) + (3.30)
N−p N−p
AIC ( p) = NLnσ2( p) + 2 p (3.31)
On vérifie d’ailleurs que les deux critères tendent à être équivalents pour de grandes tailles
d’échantillons puisque l’on obtient alors :
En fait, si le processus analysé n’est pas strictement AR, il est formellement représentable par
un modèle AR d’ordre infini et le minimum de la puissance d’erreur est rejeté à l’infini. Il en est de
même si l’identification est conduite à partir d’estimées des valeurs de la corrélation, ce qui est
pratiquement toujours le cas. Dans ce dernier cas, lorsqu’on travaille sur une séquence d’échantillons
de taille finie N, on est en fait confronté à un compromis biais-variance. En effet, plus l’ordre
augmente, plus la puissance d’erreur diminue et plus la fréquence prédite se rapproche de la
réalisation observée (diminution du biais). Cependant, augmenter l’ordre du modèle conduit dans le
même temps à utiliser des valeurs de la fonction de corrélation pour des retards de plus en plus
grands, et donc de moins en moins bien estimées puisqu’elles le sont sur de moins en moins
d’échantillons (augmentation de la variance).
c) Modélisation moyenne mobile MA
Dans ce cas, la densité spectrale est représentée uniquement par des zéros :
M
x (k ) = ∑ b( j)e(k − j)
j= 0
(3.33)
Les coefficients b(i) sont reliés aux corrélations par une relation de convolution non linéaire
difficile à résoudre. En effet :
∧
Γx ( k ) = E {x (i ) x ( k + i )} (3.36)
M −k
∧
Γx ( k ) =
j= 0
∑
b ( j )b ( k + j ) , k = 0, L , M
(3.37)
0 , k > M
Pour calculer les b(j), il suffit alors de connaître une estimée de Γx ( k ) pour k = 0,L , M .
Néanmoins, dans le cas, où l’on ne s’intéresse qu’au spectre, il est inutile de faire le calcul,
puisque la transformation de Fourier de la fonction d’autocorrélation nous donne directement ce
spectre.
Par contre, si l’on cherche la valeur des coefficients b(i), le problème est plus complexe.
Une solution consiste à rechercher une modélisation autorégressive d’ordre très élevé et
ensuite à calculer le filtre inverse (donc un modèle MA) qui minimise l’erreur quadratique due à
l’ordre fini du filtre.
Un modèle MA est en fait un modèle AR d’ordre infini. En effet un zéro de la densité
spectrale peut toujours être approché par une série de pôles. Ceci provient de l’identité.
∞
a (m) + ∑ b(i )a(m − i) = δ(m)
k =1
(3.38)
Comme le nombre de coefficients b(i) est en réalité fini, il s’ensuit une erreur dans la
modélisation. On a donc :
M
a p ( m) +∑ b(i)a (m − i) = e(m)
i=1
p (3.39)
Un signal non-stationnaire se définit par opposition à un signal stationnaire pour lequel toutes
ses propriétés statistiques sont invariantes au cours de temps. Dans le contexte déterministe, on
appelle signal non-stationnaire un signal dont le contenu fréquentiel change dans le temps. Il suffit
qu'une seule propriété statistique ou un seul composant fréquentiel soit variable dans le temps pour
que l'on puisse parler de signal non-stationnaire. Si, par exemple, dans un signal il y a une dérive
d'une fréquence au cours du temps ou un saut de moyenne temporelle, alors il s'agit d'un signal non-
stationnaire.
Plus rigoureusement, un signal déterministe est stationnaire s'il peut être écrit comme une
somme discrète de sinusoïdes :
Pour un signal mono-composante, une condition qu'il soit stationnaire est que sa fréquence
instantanée (notion qui sera introduite par la suite) et l'amplitude instantanée soient invariante en
temps.
Dans le cas aléatoire, un signal aléatoire peut être défini par la méthode présentée dans la
section 2.4.2.
La classe des signaux non stationnaires comprend une grande variété de signaux. Le
paragraphe suivant vous en présente quelques exemples.
§ Les signaux transitoires, i.e., lorsqu'on est pas encore parvenu à un régime permanent (par ex.
dans une voiture, phase d'accélération avant d'atteindre une vitesse stable),
§ Les signaux de rupture, i.e., les modifications brutales et intempestives d'amplitude (par ex. :
dans une voiture, panne de moteur, coup de frein brutal).
Par ailleurs, toutes les modulations d'un signal représentent des signaux non-stationnaires, car,
dans ce cas, un des paramètres est variable au cours du temps. La figure suivante illustre l'exemple
d'une modulation discrète en fréquence (MDF) et d'un "bump" gaussien.
Ayant un signal non-stationnaire, au moins deux questions intéressantes se posent : quelle est
la nature des non-stationnarités contenues dans ce signal ? Et quel est le moyen de quantifier ces non-
stationnarités? Une mesure de non-stationnarité devrait permettre de répondre à ces questions,
d'autant plus qu'une mesure correcte permettra une classification des différents types de non-
stationnarités.
Les mesures existantes nous renseignent, d'une manière assez "vague", sur quelques types de
non-stationnarités. Elles ne donnent pas une bonne quantification des différentes non-stationnarités.
A. Degré de non-stationnarité
avec R1 (t)=cov(v(t)) et R2 (t)=cov(w(t)) et où y(t) est le signal étudié, v(t) un bruit blanc, w(t) un bruit
blanc gaussien, θ(t) est le vecteur des paramètres et ϕ(t) est le vecteur d'observation.
Si on suppose que le vrai vecteur des paramètres est θ* , l'erreur à l'instant t est donnée par :
( )
e(t ) = y(t ) − yˆ (t ) = ϕ T (t )θ * + v(t ) − ϕ T (t )θ (t ) =
( )
= ϕ T (t ) θ * − θ (t ) + v (t ) (3.42)
e(t ) = b(t ) + v (t )
donc le bruit de sortie e(t)à l'instant t est égal à la somme du bruit de variation du modèle b(t) et de
celui d'observation v(t). Ceci nous mène à définir un degré de non-stationnarité qui est fonction du
temps : la vitesse de non-stationnarité s'apprécie en comparant à 1 le degré de non-stationnarité :
Pb (t )
d (t ) =
Pv (t )
(3.43)
Les variations lentes sont celles pour lesquelles, en permanence, d(t)<<1.(Pb (t) est la
puissance de p et Pv(t) puissance de v).
La relation (3.43) met en évidence la relativité des non-stationnarités, c'est-à-dire que ces non-
stationnarités ne sont pas lentes ou rapides dans l'absolu, mais seulement par rapport au bruit v(t) qui
entâche la mesure de la sortie du modèle.
Pour exemplifier ce principe qui vient d’être présenté, on suppose un signal généré à partir
d'un modèle d'ordre 4, simulant deux résonances. Celles-ci subissent des changements brusques au
cours de temps.
Même si le bruit de variation b(t) est partout faible, sauf aux environs du premier changement,
nous remarquons que le degré de non-stationnarité (figure 3.4.a) reste inférieur à 1, malgré les deux
changements brusques qui interviennent aux échantillons numéros 300 et 600. Ceci explique les
capacités modestes que possède ce test de non-stationnarité.
B. Test de corrélation
Le principe de cette mesure que nous introduisons est basé sur la comparaison, à l'instant
courant, du vecteur de paramètre du modèle AR à l'instant présent avec celui de l'instant passé. Cette
comparaison est faite à l'aide de la mesure du coefficient d'intercorrélation entre le vecteur de
paramètres du modèle AR à deux instants successifs. Pour mieux quantifier le moindre changement
des coefficients du modèle AR, nous nous intéressons au calcul du déterminant de la matrice
d'intercorrélation. Cette matrice est formée des coefficients d'intercorrélation entre le vecteur de
paramètres du modèle AR à deux instants successifs.
Pour comparer deux vecteurs de n données réelles, u(t) et v(t), on considère le scalaire a qui
minimise la fonction coût suivante :
V (t ) = ∑ [v (n ) − au(n )]
t
2
(3.44)
n=1
En annulant la dérivée de V(t) par rapport à a, on obtient :
∑ u (n)v (n )
t
n =1
a= (3.45)
t
∑ [u(n )]
2
n =1
Le minimum Vmin (t) de la fonction de coût s'écrit alors :
[ 2
]
Vmin (t ) = 1 − cuv (t ) ∑ [v(n )]
n=1
t
2
(3.46)
∑ u (n )v(n )
t
avec c uv (t ) = n=1
(3.47). La quantité cuv(t) est appelée le coefficient
t t
∑ [u (n)] ∑ [v(n )]
2 2
n=1 n=1
d'intercorrélation et il mesure le degré de similitude entre les deux vecteurs de données.
Il est clair, en raison des relations (3.45) et (3.47), que le coefficient d'intercorrélation est tel
que cuv (t ) ≤ 1 . Il est dit normalisé.
Lors de la recherche d'un modèle adaptatif en contexte non-stationnaire, le modèle change au
cours de temps. Pour le cas d'un modèle AR, et pour se forger une idée sur le degré de variation du
modèle entre deux instants successifs, nous calculons le coefficient d'intercorrélation normalisé, à
l'instant t entre les vecteurs de paramètres du modèle AR aux instants t et t-1. Si le modèle reste
inchangé entre ces deux instants, la valeur absolue de l'intercorrélation des deux vecteurs de
paramètres du modèle vaut 1; dans le cas contraire, cette valeur absolue est inférieure à 1. Ensuite,
nous formons la matrice contenant les quatre coefficients cuu (t), cuv(t), cvu(t) et cvv(t) sous la forme
suivante :
c (t ) c uv (t )
C (t ) = uu
cvu (t ) cvv (t )
(3.48)
Cette matrice contient des informations d'autocorrélation de chacun des deux vecteurs ainsi
que l'intercorrélation entre ces vecteurs à l'instant courant t. Si rien ne change au cours de temps, le
déterminant de cette matrice est nul puisque les deux vecteurs u(t) et v(t) sont identiques. Le moindre
changement entre u(t) et v(t) se traduit par une intercorrélation différente de 1, en valeur absolue, et,
donc, ce changement se répercute sur la valeur de ce déterminant.
Pour justifier cette méthode, nous sommes partis du fait que pour un modèle AR, le vecteur
des paramètres représente les coefficients du filtre dont la réponse impulsionnelle est caractérisée par
ce vecteur des paramètres; et que deux vecteurs identiques donneront les mêmes réponses
impulsionnelles.
ENSIETA, Janvier 2002 37
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
3. Généralités sur les signaux non-stationnaires
C. Fréquence instantanée
La notion de stationnarité est bien définie pour les processus aléatoires. Dans le cas des
signaux certains, une notion apparentée existe, qui est en fait liée à une idée de régime permanent et
de stabilité d'une fréquence au cous du temps. Sa définition nécessite de recourir au concept de signal
analytique qui s'appuie lui-même sur une transformation spécifique : la transformation de Hilbert. Par
définition, celle-ci est donnée par la formule :
1 ∞ x (u )
H {x(t )} = vp ∫ du (3.49)
π −∞ t − u
où l'intégrale doit être prise au sens de la valeur principale de Cauchy.
1
La réponse impulsionnelle d'un filtre de Hilbert est la fonction , d'où on déduit que son
πt
gain complexe vaut -j*sgn(v). Le résultat en est qu'un signal monochromatique cos(2πν 0t) voit son
spectre [δ (υ − υ 0 ) + δ (υ + υ 0 )] transformé en
1 1
[δ (υ − υ 0 ) − δ (υ + υ 0 )] qui est le spectre de
2 2j
π
sin(2πν0 t). Le filtre de Hilbert agit ainsi comme un déphaseur pur de (filtre en quadrature).
2
Ceci permet de définir de manière canonique des notions comme celles d'amplitude ou de
fréquence instantanée(s) d'un signal modulé. Considérons en effet le signal monochromatique
x (t ) = a cos(2πυ 0t ) avec la représentation complexe z x (t ) = ae j 2πυ 0 t dans laquelle la composante
imaginaire est en quadrature avec la partie réelle :
Intuitivement, lorsqu'un signal est modulé, c'est-à-dire lorsque son amplitude et sa fréquence
sont réputées varier au cours du temps, on pourrait être tenté de généraliser le cas monochromatique
en remplaçant a*cos(2πν0 t) par x (t ) = a (t ) cos ϕ (t ) . Ceci ne constitue cependant pas une
représentation admissible d'un signal quelconque. Pour s'en convaincre, il suffit d'introduire une
a(t )
fonction arbitraire b(t) telle que 0<b(t)<1; en a alors tout aussi bien x (t ) = b(t ) cos ϕ (t ) que l'on
b (t )
peut écrire :
a(t )
a (t ) =
'
x (t ) = a (t ) cos ϕ (t ) avec b(t )
' '
(3.52)
ϕ ' (t ) = arccos (b(t ) cos(ϕ (t )))
Une solution à ce problème consiste à généraliser, non pas directement la définition d'une
onde monochromatique, mais la façon dont on peut déduire ses caractéristiques d'une représentation
complexe convenable. Ainsi, si on part du modèle du vecteur tournant en le rendant dépendant du
temps et si on impose que ce modèle complexe satisfasse à des relations de quadrature entre parties
réelle et imaginaire, la solution consiste à « complexer » un signal réel x(t) en lui adjoignant une
partie imaginaire égale à son signal en quadrature :
z x (t ) = x (t ) + jH {x(t )} (3.53)
Le signal résultant est dit analytique . Ainsi défini, il admet une écriture unique en termes de
module et de phase et il devient possible de définir les notions d'amplitude et de fréquence
instantanées par :
a = z x (t ) ;
(3.54)
⋅ {z x (t )}
1 d
υt =
2π dt
D'un point de vue spectral, le signal analytique est relié au signal réel dont il est issu par :
Z x (υ ) = 2u (υ ) X (υ ) (3.55)
Ceci revient à supprimer les fréquences négatives du spectre original, ce qui diminue en rien
l'information puisque, pour un signal x(t) ∈ R, on a la relation X (− υ ) = X * (υ ) .
Si, par structure, la partie réelle d'un signal analytique z (t ) = a(t )e j ϕ (t ) s'écrit naturellement
Ré {z(t )} = a(t ) cos (ϕ (t )) il importe d'avoir présent à l'esprit que le signal analytique associé à un signal
modulé selon a (t ) cos(ϕ (t )) n'a apriori aucune raison d'avoir une écriture exponentielle dans laquelle
les mêmes a(t) et ϕ(t) seraient respectivement les termes de module et de phase. D'un point de vue
physique, on se rapprochera cependant d'autant plus de cette situation que les effets de modulation
seront faibles. En particulier, si a(t) est de type passe-bas, alors (selon le théorème de Bedrosian, [4])
L'absence de stationnarité ne suffit pas pour préciser le type de signaux non-stationnaires sur
lesquels on travaille, d'où la nécessité de déterminer des classes ou des types de signaux non-
stationnaires. Ces classes peuvent être obtenues suivant le point vue selon lequel ces signaux non-
stationnaires sont considérés.
Une première façon considère les signaux d'un point de vue de la rapidité de leur non-
stationnarité. Si, une situation non-stationnaire correspond à la concaténation de quasi-stationnarité
ou de non-stationnarités lentes, une approche adaptative est alors applicable à ce genre des signaux.
Lorsque les hypothèses de quasi-stationnarité ne sont plus justifiées, l'approche évolutive est alors
valable et suppose que les non-stationnarités sont rapides. Mais certaine non-stationnarités sont très
particulières pour être traitées par l'une ou l'autre des approches, ce sont les changements brusques ou
abrupts.
Une autre manière consiste à considérer les non-stationnarités du point de vue de leur nature
déterministe ou aléatoire. Ce qui mène à la notion de non-stationnarités permanentes déterministes,
non-stationnarités permanentes aléatoires ou des ruptures. Les deux premiers cas concernent les non-
stationnarités lentes, le dernier étant le cas des non stationnarité rapide. Néanmoins, il est difficile de
connaître la limite entre non-stationnarités lente et rapide.
L'idée de base de cette approche est de suivre les évolutions du signal par une récursion
temporelle en ne modifiant que peu les outils pour les situations stationnaires. Cette approche prend
en compte les non-stationnarités par l'intermédiaire de l'algorithme adaptatif.
Une modélisation adaptative peut être vue comme un processus à deux niveaux :
− Niveau 1 : rendre récursif une méthodes globale;
− Niveau 2 : rendre « oublieuse » la méthode ainsi obtenue pour lui permettre de suivre les
évolutions du signal.
Cette méthode présente l'avantage qu'elle ne fait pas d'hypothèse "directe" sur le type de non-
stationnarité. Cependant, il n'y a ni paramétrisation de l'évolution temporelle du signal, ni de mesure
de performance de l'algorithme et ses capacités à suivre les non-stationnarités.
est le choix de ces fonctions : devant un problème donné, on ne dispose pas de méthodologie qui nous
permette d'opter pour l'une ou l'autre des fonctions.
Cette approche limite les non-stationnarités à des sauts en des instants isolés entre lesquels le
modèle reste invariant; on peut dire qu'il s'agit de modèles stationnaires par morceaux.
L'hypothèse d'un modèle invariant entre deux instants peut être interprétée de deux façons
différentes :
- La première considère que c'est réellement dans la production du signal que se situent ces sauts, et
le problème est donc d'identifier les instants de leur occurrence, et ensuite d'estimer le modèle sur
chaque intervalle et de suivre les variations du signal sur ces intervalles. C'est notamment le cas
en reconnaissance de la parole;
- Pour la seconde, l'hypothèse des sauts n'est vue que comme une astuce d'analyse permettant de
modéliser l'évolution du signal. Les instants des sauts sont alors arbitraires, ne dépendent pas du
signal lui-même et peuvent être fixés par l'utilisateur. On teste alors si ces instants de sauts sont
justes.
Cette méthode consiste à considérer les coefficients du modèle comme aléatoires, et donc le
modèle global est constitué par deux niveaux. Le premier est celui du système engendrant le signal,
tandis que le second est celui de la dynamique du système de niveau 1.
L'identification simultanée des deux niveaux est très délicate, puisqu'il s'agit en général de
problèmes non-linéaires, d'autant plus qu'au second niveau l'entrée comme la sortie du modèle sont
inconnues, et multipliées par les paramètres, eux aussi inconnus, du modèle au niveau 1.
Si on suppose, par exemple, que θ(t) est le vecteur des paramètres, à l'instant t, (niveau 2), on
obtient les équations suivantes :
y(t ) = ϕ T (t )θ (t ) + v(t )
(3.58)
θ (t ) = A(t )θ (t − 1) + w(t )
Cette approche non-paramétrique (qui fera l'objet des chapitres suivants) consiste à utiliser
certaines distributions temps-fréquence capables de donner une représentation conjointe en temps et
en fréquence d'un signal non-stationnaire. Elle nous permet, à quelques hypothèses près, de voir la
répartition de l'énergie du signal dans le plan temps-fréquence. On obtient ainsi, simultanément, les
informations concernant les structures temporelles et fréquentielles, quel que soit le degré de non-
stationnarité du signal.
Ex
∆t . ∆ν ≥ (3.59)
4. π
Ce qui signifie dans le cas pratique, qu’il est impossible d’obtenir un signal dont les supports
temporel et fréquentiel soient simultanément arbitrairement petits. En effet, la dimension du support
temporel est inversement proportionnelle à la dimension du support fréquentiel et inversement.
Dû à l’absence de l’information temporelle, dans les applications pratiques, la transformée de
Fourier peut induire des confusions, dans le cadre d’un processus d’idéntification des signaux non-
stationnaire. Ceci est illustré sur la figures suivante, on presente les spectres d’une modulation
linéaire en fréquence et, respectivement, d’une modulation sinusoidale en fréquence.
Spectre de la modulation linéaire de fréquence Spectre de la modulation sinusoidale de fréquence
Fréquence (normalisée)
Temps Temps
Figure 3.6. RTF versus la transformée de Fourier
Sur cette figure on observe que les spectre des signaux test ont quasiment la meme forme
tandis que les images obtenues par une RTF permettent d’indentifier sans ambiguités les types de
modulation considerés.
Références
[1] J. Ville - "Théorie et applications de la notion de signal analytique, Câbles et transmissions", Vol 2, n°1, pp61-74,
1948
[2] A. Blanc-Lapierre, B. Picinbono - "Remarques sur la notion de spectre instantané de puissance", Publications Scient.
Université Alger, Série B, Vol 1, n°1, pp17-32, 1955
[3] A. Papoulis - "Signal analysis", MacGraw Hill, 1986
[4] M.H. Hayes - "Statistical digital signal processing and modeling", John Wiley & Sons, Inc, 1996
[5] A. Quinquis - "Représentations temps-fréquence", Support de cours, ENSIETA, 1995
EXERCISES ET PROBLEMES
ω = ∫ ω S (ω ) dω et B 2 = σ ω2 = ∫ (ω − ω )2 S (ω ) 2 dω
2
où S (ω ) est la DSP d'un signal s(t). Ecrire l'expression de la fréquence moyenne et de la largeur de
2
3. (Analyse spectrale) Soit x(n) un processus AR(1) défini par les paramètres {a1 ,σ2 }.
a. Montrer que la fonction d'autocorrélation s'écrit :
σ2
r xx (m) = (− a1 ) m
2
1 − a1
4. (Analyse spectrale) Soit x(n) un processus ARMA (1,1) défini par {a1 ,b1 ,σ2 } et soit rxx(m) sa
fonction de corrélation. Montrer que
(
σ 2 1 + b12 − 2a1b1
,m=0
)
1 − a12
r xx (m) = 2
σ (1 − a1b1 )(b1 − a1 ) (− a ) m −1 , m ≥ 1
1 − a12
1
5. (Analyse spectrale) Soit x(n) un processus MA(1) défini par {b1 ,σ2 } et soit rxx(m) sa fonction de
corrélation. Montrer que la fonction d'autocorrélation de ce processus s'écrit :
( )
σ 2 1 + b12 , m = 0
r xx (m) = σ 2 b1 , m = 1
0, m ≥ 2
ENSIETA, Janvier 2002 44
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
3. Généralités sur les signaux non-stationnaires
4
REPRESENTATIONS TEMPS-FREQUENCE LINEAIRES
4.1.1. Définitions
h(t)
Temps
TF
TF
TF
TF
TF
Fréquence
T
FCT Temps
Du point de vue mathématique, la TFCT peut être interprétée comme l’analyse de Fourier de
tranches successives pondérées par une fenêtre temporelle (Hamming, par exemple). Ce principe est
équivalent à l’approximation du signal par un ensemble des fonctions élémentaires semi-localisées
simultanément en temps et en fréquence :
G(t ,υ ) = ∫ x(τ )ht*,υ (τ )dτ = ∫ x (τ ) h * (τ − t ) e −2πjυτ dτ (4.1)
Cette relation représente le produit scalaire entre le signal x(t) et les fonctions de base
ht ,υ (τ ) = h (τ − t )e j 2πυτ (reflet de la similarité qui existe entre x(t) et les fonctions (h(t)).
En pratique, on utilise le Spectrogramme qui est le module au carré de la TFCT. Lorsque les
valeurs de TFCT sont, en général, complexes, le module carré nous assure que la valeur du
spectrogramme sera toujours une valeur réelle. Le spectrogramme (expression numérique) est alors
défini comme une densité d’énergie soit :
∫ x (τ )h (τ − t )e
− j 2πυτ 2
S (t ,v) = *
dτ (4.2)
- pour un signal fortement non-stationnaire, une bonne résolution temporelle est requise, ce
qui impose de travailler avec une fenêtre h(u) courte, limitant par voie de fait la résolution
fréquentielle ;
- réciproquement, si une analyse fréquentielle fine est nécessaire, une fenêtre h(u) longue doit
être utilisée, ce qui a le double effet de moyenner les contributions fréquentielles sur la durée de la
fenêtre et de dégrader la résolution temporelle.
Pour en déduire les propriétés générales de la TFCT et du spectrogramme, on introduit la
notion de fonction caractéristique du spectrogramme, [3], selon :
est la fonction d’ambiguïté du signal x(t) et Ah est la fonction d’ambiguïté de la fenêtre h(t), définie
d’une manière analogique.
• Energie totale
L’énergie totale est obtenue par l’intégration sur tout le support temporel et fréquentiel. En
utilisant la fonction caractéristique définie ci-dessus (4.3 et 4.4), on obtient :
( 4.3) ( 4.4)
E SP = ∫∫ S (t , υ )dtdυ = M SP (0,0 ) = Ax (0,0) ⋅Ah (0,0) =
= (∫ s (t ) dt )× (∫ h(t ) dt )
(4.5)
2 2
Pour que l’énergie soit conservée, par l’application du spectrogramme, on déduit, à partir de la
relation (4.5), que la fenêtre doit avoir une énergie unitaire ( ∫ h (t ) dt = 1 ).
2
Pour déterminer les expressions des marginales en temps et en fréquence, on introduit les
notations suivantes :
x (t ) = A(t )e j ϕ (t ) ; h(t ) = Ah (t )e j ϕ h (t )
(4.6)
X (υ ) = B(υ )e j ψ (υ ) ; H (υ ) = B (υ )e j ψ H (υ )
H
La marginal en temps est obtenue par intégratio n du spectrogramme sur tout l’axe
fréquentiel :
( 4 .6 )
P(t ) = ∫ S (t , υ ) dυ = ∫ A 2 (τ ) Ah2 (τ − t )dτ
2
(4.7)
( ) ( )
( 4 .6 )
P(υ ) = ∫ S (t , υ ) dt = ∫ B 2 υ ' B H2 υ − υ ' dυ '
2
(4.8)
On peut observer, à partir de (4.7) et (4.8), que, en général, les marginales en temps et en
fréquence du spectrogramme ne satisfont pas les marginales corrects du signal :
P(t ) ≠ A 2 (t ) = x(t )
2
(4.9)
P(υ ) ≠ B (υ ) = X (υ )
2 2
Cette propriété consiste à considèrer qu’une représentations temps-fréquence (RTF) est nulle
en dehors des supports physiques d’un signal. En effet, pour un signal s(t) (avec la TF S(f)), cette
propriété s’écrit :
[ ] [
Soit s(t ) ≠ 0 pour t ∈ t 0 − T , t 0 + T et s (t ) = 0 pour t ∉ t 0 − T , t 0 + T avec la transform ée
2 2 2 2
]
[ ] [
de Fourier S ( f ) ≠ 0 pour f ∈ f 0 − B , f 0 + B et S ( f ) = 0 pour f ∉ f 0 − B , f 0 + B . On dit qu' une
2 2 2 2
]
RTF respecte la propriété de conservati ons des supports temporel et fréquencti el si
[
≠ 0 si t ∈ t 0 − T , t 0 + T et f ∈ f 0 − B , f 0 + B
RTFs (t , f ) =
] [ ]
[ ] [ ]
2 2 2 2 ( 4.10)
= 0 si t ∉ t 0 − T , t + T et f ∉ f − B , f + B
2 0 2 0 2 0 2
Dans le cas du spectrogramme, cette propriété n’est pas verifiée, car même si s(t)=0 pour t 0 ,
en raison de la pondération du signal par une fenêtre h(t) le terme x(τ)h(τ-t) ne sera pas nul à cet
instant et, par conséquent, le spectrogramme ne sera pas nul pour cette valeur de t. Ceci est illustré sur
la figure suivante où on a considéré, comme signal de test, un atome gaussien et, pour t0 =45 on
constate clairement que, même si le signal est nul, le produit x(τ)h(τ-t) est différent de 0 et, comme
conclusion finale, la spectrogramme ne conserve donc pas le support temporel du signal.
Atome gaussien
h(τ-45)
Spectrogramme : h-Hamming, 77
Fréquence (normalisée)
Temps
Figure 4.2. Non-conservation du support temporel
Des considérations similaires peuvent être faites pour le cas fréquentiel, et, ainsi, le
spectrogramme et la TFCT ne respectent pas la propriété de conservation des supports temporel et
fréquentiel.
Comme illustré ci-dessus, si on souhaite une bonne localisation temporelle on a besoin d’une
fenêtre étroite h(t) et si on souhaite une bonne localisation fréquentielle la fenêtre H(f) doit etre
étroite. Mais comme h(t) étroit conduit à une H(f) large et vice-versa, on aura toujours un compromis
à résoudre, quand il s’agit de choisir la fenêtre h(t). Dans le tableau ci dessous on présente quelques
types des fonctions de pondération h(t) couramment utilisées.
Ce compromis est régi par le principe d’incertitude d’Heisenberg-Gabor (voir la section 3.4)
et le meilleur choix est une fonction de type gaussien, la transformée générée étant alors appelée
transformée de Gabor (qui sera présentée dans la section 4.2.).
2
n− N /2
Welch w (n ) = 1 −
N /2
40 50 60
1− 2n / N, 0 ≤ n ≤ N / 2
Bartlett w(n) = 1 + 2n / N, − N / 2 ≤ n ≤ 0
0,
sinon
30 40 50 60
2πn
Hamming w(n ) = 0 .5 + 0.5 * cos
N
2πn
Hanning w(n ) = 0.54 + 0.46 * cos
N
40 50
1/ 2
2n 2
I0β1−
N −1
wk (n) =
, −( N −1) / 2 ≤ n ≤ ( N −1) / 2
I0(β )
Kaiser
0, sinon
2L
x
∞
2
I0(x) = 1+ ∑
L=0 (L!)
2
40 50 60
• L’inversibilité du spectrogramme
Lorsque le spectrogramme est le module carré de la TFCT il est affirmé qu’on ne dispose plus
de la phase du signal et, par conséquent, la reconstruction de celui-ci n’est pas possible. Cette
supposition est fausse, car lorsqu'on calcule le spectrogramme on perd seulement la phase de TFCT,
pas celle du signal. En conclusion, la reconstruction est possible mais avec quelques précautions sur
le choix de la fenêtre.
A partir de la relation (4.3), la fonction d’ambiguïté du signal peut s’écrire de manière
équivalente :
M (θ , τ )
Ax (θ , τ ) = SP S (t ,υ ) e j 2πθ t + j 2πτυ dtdυ
1
∫∫
2
=
Ah (− θ , τ ) Ah (− θ ,τ )
(4.11)
(
x* t − τ
2
)x(t + τ 2 ) = 21π ∫ A (θ , τ )e x
− j 2πθ t
dθ (4.12)
M (θ , t )
x (t ) =
1
∫ e − j 2πθ t / 2 dθ
SP
(0) Ah (− θ , t )
(4.14)
2πx *
• Invariance du spectrogramme
Comme on l’a montré au début du chapitre, la TFCT peut être interprétée comme la projection
du signal x(t) sur les fonctions de base ht ,υ (τ ) = h (τ − t )e j 2πυτ (voir la relation (4.1)). Sur la figure
4.3 on présente, de manière comparative, le pavage temps-fréquence induit par cette transformée.
Pavage de Shannon Pavage de Fourier
Fréquence
Temps
Pavage de TFCT 1
Atome de Gabor
0.8
0.6
0.4
0.2
-0.2
-0.4
-0.6
-0.8
0 20 40 60 80 100 120 140
Par ailleurs, la transformée identité peut être interprétée comme la projection du signal sur un
ensemble d’impulsions decalées, représentant une meilleure localisation temporelle mais la pire
localisation fréquentielle (figure 4.3.a). A l’opposé on trouve la représentation fréquentielle, fournie
par la transformée de Fourier (figure 4.3.b).
Fréquence (normalisée)
Fréquence (normalisée)
4.1.5. Conclusion
Autrement dit, la transformée de Gabor représente la projection du signal sur toutes les
versions modulées et translatées de la fonction d’analyse h.
L’implémentation pratique de cette transformation impose l’existence d’un réseau
d’échantillonnage bidimensionnel, paramétré par T- le pas de discrétisation temporelle et υ - le pas de
discrétisation fréquentielle. Un tel réseau est présenté sur la figure suivante.
Fréquence
T
υ
nυ
Temps
(0,0) mT
Figure 4.4. Réseau d’échantillonnage pour la transformé de Gabor
Dans ces conditions, un signal quelconque peut être décomposé en série de Gabor [1], selon :
∞ ∞ ∞ ∞
x (t ) = ∑ ∑ Cm, n hm, n (t ) = ∑ ∑ C m,n h(t − mT ) exp { j2πnυt} (4.21)
m = −∞ n= −∞ m= −∞ n = −∞
Cette décomposition, proposée par Gabor, existe si les paramètres d’échantillonnage satisfont
la condition :
Tυ ≤ 1 (4.22)
Intuitivement, si le produit Tυ est plus grand que 1, on n’a pas assez d’information pour
pouvoir reconstruire le signal (cas de sous-echantillonage). Si Tυ est plus petit que 1, la
représentation sera redondante (cas de sur-echantillonage-« oversampling »). Traditionnellement (cas
pris en compte par Gabor), si Tυ=1 on obtient la représentation la plus compacte ; ce cas s’appelle
échantillonnage critique.
Dans ces travaux, Gabor n’a proposé aucune méthode pour calculer les coefficients Cm,n et
ceci explique pourquoi ces approches ont été abandonnées jusqu’en 1980. A ce moment-là, Bastians
[1] a unifié la décomposition de Gabor avec la TFCT, proposant ainsi une méthode pour le calcul de
Cm,n . De même, Bastians a mis en évidence les trois possibilités d’échantillonnage, présentées ci-
dessus. C’est toujours lui qui a montré que la TFCT continue inverse est une représentation fortement
redondante et, par conséquent, il a proposé l’échantillonnage de la TFCT, en utilisant un réseau
critique. La transformée issue constitue une méthode efficiente pour le calcul des coefficients de
Gabor Cm,n . Ainsi, si les fonctions de Gabor {hm,n (t)} forment un ensemble complet, alors il existe un
~
{ }
ensemble dual de fonctions h m, n (t ) tel que :
C m,n = ∫ x(t )h m,n * (t ) = ∫ x(t )h * (t − mT ) exp{− jn2πυt }dt = TFCT (mT , nυ )
~ ~
(4.23)
La TFCT (dans le cas d’une fenêtre d’analyse gaussienne) échantillonnée a été nommée par
Bastians la transformée de Gabor.
Dans le cas de l’échantillonnage critique, l’ensemble des fonctions {hm,n (t)} est linéaire
indépendant et, selon les notions de biorthogonalité (introduites dans le chapitre 3), il existe un
ensemble de fonctions duales à {hm,n (t)} et unique (l’ensemble sera unique, donc, dans ce cas, le
deuxième problème est résolu ), qui représente la base de Riesz associée au {hm,n (t)}.
En remplaçant la relation (4.23) dans la partie droite de l’expression (4.21), on obtient :
() ()
∞ ∞ ~
x (t ) = ∫ x t ' ∑ ∑ h m, n * t ' hm,n (t )dt ' (4.24)
m= −∞ n= −∞
Evidement, la décomposition de Gabor existe si et seulement si la somme double est égal à la
fonction de Dirac :
() ( )
∞ ∞ ~
∑ ∑ h m,n * t ' hm, n (t ) = δ t − t ' (4.25)
m= −∞ n= −∞
Par la formule de sommation de Poisson, [4], (4.25) peut être réduite à une seule intégration :
où h 0 m,n * (t ) = h (t − mT0 ) exp { jn2πυ 0 }et T0 =1/υ, υ0 =2π/T. Cette relation, appelée l’identité de
~ ~
Wexler-Raz, présente l’outil de base pour déterminer les fonctions duales de hm,n (t). Ainsi, la solution
de l’équation (4.26) représente l’ensemble dual cherché.
Cas du sur-échantillonage
Dans ce cas, les fonctions {hm,n (t)} sont linéaires dépendantes. Dans ce cas, l’unicité de
l’ensemble dual n’est plus valable. La représentation est alors redondante : la reconstruction ne sera
pas exacte, mais ce degré de redondance apporte quelques propriétés importantes, qui seront discutées
par la suite.
Pour au moins deux raisons, il est préférable de choisir un échantillonnage critique : la
première est due au fait que les fonctions duales, qui vont déterminer les coefficients de Gabor sont
données par l’équation (4.26) (rapidité de calcul) et la seconde, l’ensemble dual issu est unique, ce
qui nous garantit une reconstruction parfaite. Mais tous ces avantages n’existent que dans le cas
ideal : quand on dispose de signaux sur un support infini et quand on n’est pas intéressé de la lisibilité
de la RTF engendrée. En effet, Bastians a montré que, dans le cas d’échantillonnage critique, lorsque
h(t) est concentrée optimalement dans le domaine temps-fréquence la fonction duale n’est concentrée
ni en temps ni en fréquence (figure 4.5.a et b). Ainsi, les coefficients Cm,n qui sont déterminés à partir
de ces fonctions ne caractériseront pas la distribution du signal dans le plan temps-fréquence, pour la
location correspondante [mT − ∆ t , mT + ∆υ ] × [nυ − ∆υ , nυ + ∆υ ] (voir la figure 4.5.c.).
Dans le cas du sur-échantillonage, l’ensemble dual de fonctions n’est pas unique, mais il
existe plusieurs méthodes ([1, pag. 56-73]) pour sélectionner l’ensemble optimal. Une de ces méthode
sera présentée dans la section suivante ; selon cette méthode, le degré de redondance introduit permet
d’améliorer fortement la lisibilité de la RTF calculée, qui consiste, en fait, à représenter les
coefficients de Gabor dans le plan temps-fréquence.
Representation temporelle de h(t) et de sa duale Representation fréquentielle de h(t) et de sa duale
~ H(υ)
h (t )
~
h(t) H (υ )
Fréquence (normalisée)
Temps Temps
c. d.
Figure 4.5. L’inconvénient de l’échantillonnage critique en ce qui concerne la lisibilité de la RTF
Dans la section précédente on a vu que le degré de redondance qui apparait pour un sur-
échantillonage de la transformée de Gabor rend une meilleure lisibilité à la représentation temps-
fréquence engendrée, mais ceci se passe lorsque la fonction duale, utilisée pour déterminer les
coefficients de Gabor, est choisie de manière optimale, en respectant un certain critère [1, pag. 56-
73]. Dans cette section on présente une méthode proposée par Qian et Chen [1], développée pour un
signal discret, s[k], composé de L échantillons. La procédure pour calculer les coefficients de Gabor,
dans le cas du sur-échantillonage, est présentée ci-dessous.
s[k]
h [k ]
~ TFD
TFD
TFD
Les coefficients de Gabor
N
N
a=
≥1 (4.32)
∆M
ce qui revient à dire que pour une reconstruction stable, le pas d’échantillonnage en temps, ∆M, doit
être plus petit ou égal au nombre de canaux fréquentiels N.
Pour déterminer h [k ] pour une h[k] donnée, on introduit (4.31) en (4.32) et on obtient :
~
[ ] [ ]
M −1N −1
∑ ∑ h[k − m∆M ]h * k ' − m∆M WNn (k −k ) = δ k − k '
~ '
(4.34)
m= 0 n = 0
Pour rendre exploitable cette relation, on applique la formule de sommation discrète de
Poisson :
M −1
1 ∆M −1 L−1
∑ a [n − m∆ M ] = ∑ ∑ a[i ]W∆−Mik W∆nkM
(4.35)
m=0 ∆M k = 0 i = 0
Comme la fonction élémentaire h[k] est une fonction gaussienne qui est optimalement
concentrée dans le domaine temps-fréquence, une idée naturelle pour la sélection de la fonction duale
optimale est de minimiser l’erreur quadratique moyenne , définie selon :
2
L −1 ~
2
h [k ]
L−1 ~
h [k ] h [k ]h[k ]
~
Γ = min ∑ ~ − h[k ] = min ∑ ~ − 2 ~ + h 2
[k ]=
H ⋅h = µ k = 0 h
~ ~
H ⋅h = µ k =0 h h
(4.39)
2 L−1 ~
= min~
2 − ~ ∑ h [k ]h[k ]
H ⋅h = µ h k =0
L−1
∑ h [k ]
~ ~ 2
où h = . Compte tenu de (4.36), la relation (4.39) devient :
k =0
1 ∆M
Γ = min~
1− ~ (4.40)
H ⋅h = µ h N
par h [k ] (solution du système linéaire (4.37))
~
qui montre que la solution optimale sera donnée
d’énergie minimale.
On suppose que la matrice H est de rang p et que son nombre de lignes vaut q. En appliquant
la décomposition en valeurs singulières à la matrice H, (4.37) devient :
~
USV ⋅ h * = µ (4.41)
où S∈R et les matrices U ∈ C et V∈ C
q,L q,q L,L
sont des matrices unitaires. Si on multiplie les deux
T
parties de (4 .41) par U , celle-ci devient :
S 0p× p
O p×(l − p ) V p0×L ~
1 [ ] T
h = U q0× p U 1q×(q − p ) µ (4.42)
O( q− p )× p O(q − p )×(l − p ) V(L − p )×L
La solution de (4.42) existe si µ est orthogonal sur U1 (la condition de consistance). Dans ce
cas, (4.42) peut être réécrite selon :
~
Ĥ ⋅ h * = µ̂ (4.43)
( ) T
où Hˆ = S 0V 0 ∈ C P , L et µˆ = U 0 µ . En utilisant la pseudo-inverse de Ĥ , la solution optimale
devient :
~*
hopt (
= Hˆ T Hˆ Hˆ T
−1
)
µ̂ (4.44)
La fonction duale ainsi obtenue s’approche de celle de Gabor lorsque le taux de sur-
échantillonage augmente. Comme résultat immédiat, la concentration de la fonction duale dans le
plan temps-fréquence s’approche de la fonction optimale, par conséquent, les coefficients de Gabor
vont approximer au mieux les caractéristiques locales du signal.
4.2.4. Conclusions
Dans les sections 4.1 et 4.2 la problématique des représentations temps-fréquence linéaires
pour lesquelles le principe d’incertitude d’Heisenberg-Gauss constitue l’inconvénient majeur a été
présenté. La transformée qui minimise au mieux l’influence de ce principe est celle de Gabor.
Néanmoins, dans les cas pratiques, cette transformation ne respecte plus les propriétés mathématiques
de base ou celles-ci ne sont pas toujours utiles dans les applications pratiques. Ainsi, quelques
considérations sur le cas du sur-echantillonage, qui a pour but l’amélioration de la lisibilité de la RTF,
ont été faites pour obtenir une solution satisfaisante. Ce cas apporte des difficultés sur la
détermination de la fonction duale optimale et une solution générale à ce problème a été approchée.
Durant les vingt dernières années, les décompositions en bandes de fréquences ont trouvé de
nombreuses applications en traitement du signal. L'expansion d'une fonction sur quelques bandes de
fréquences donne une représentation intermédiaire entre une représentation spatiale (ou temporelle) et
une représentation de Fourier. En analyse harmonique, ce type de représentation est apparu dans les
travaux de Littlewood et Payley dans les années 1930. De nombreuses recherches ont convergé
Morlet et Grossman ont formalisé de nombreux concepts introduits, pour certains, dès le début
du siècle. Ils ont ouvert la porte à un vaste champ d'applications et à de nouveaux résultats très
importants. Actuellement, il serait difficile d'énumérer tous les domaines d'application de cette théorie
tant ils sont nombreux, que ce soit en traitement du signal (bancs de filtres), en compression (parole,
images, scènes tri-dimensionnelle), en chimie, en physique, en astronomie etc. En traitement du
signal, la théorie des bancs de filtres a donné lieu au fameux schéma de décomposition -
reconstruction de Stéphane Mallat. En compression d'images, l'algorithme de décomposition
pyramidale d'une image a servi de base pour l'analyse multirésolution. Mais avant tout on va
présenter, dans la section suivante, ce qu’est une ondelette.
Une ondelette est une fonction avec quelques propriétés particulières. Dans le contexte le plus
général, la fonction ondelette satisfait les conditions suivantes
1. Elle a une structure courte, d'énergie finie, dans le domaine temporel;
2. Elle présente quelques oscillations dans le même domaine.
La première condition fournit l'attribut "little" et la deuxième - l'attribut "wave" (onde) et d'ici,
le nom dans le langage anglo-saxon : "wavelet" .
Une fonction ondelette générée, par dilatation (ou contraction) et translation (selon l'axe
temporel), génère une famille de fonctions ondelettes. Mathématiquement, cette famille est générée
selon {τ t Ds g}, où g est appelée la fonction ondelette d'analyse ou l'ondelette mère. Cet ensemble
contient toutes les versions dilatées (par s) et translatées (par t) de la fonction d'analyse. D'une
manière très générale, la TOC est définie comme la projection d'un signal f sur toute la famille des
fonctions ondelettes f ,τ t Ds g . A chaque point (t,s) dans le plan temps-échelle, l'amplitude de la
transformée ondellete fournit une information sur le degré de ressemblance entre le signal analysé et
la version de g décalée de t, à l'échelle s.
Dans les applications pratiques (debruitage, compression etc.) on veut que la TOC soit
inversible et, par conséquent, les conditions 1 et 2 ne sont pas suffisantes : il faut que la famille
générée par g soit complète. Autrement dit, chaque fonction f doit être représentable par une
combinaison linéaire des fonctions générées par g. La troisième condition consiste donc à assurer
l'inversion de la TOC; par la suite, on verra que cette condition est satisfaite si g est une fonction de
moyenne nulle (ce qui impose le caractère oscillant de la fonction).
Dans la suite on va donner quelques exemples de fonctions d'ondelettes fondamentales, qui
vont nous aider pour la compréhension des éléments qui seront introduits après.
A. Ondelette de Haar
g Haar =
1
[ ]
1[−1 / 2,0 ) − 1(0,1 / 2 ] (4.45)
2
où "1" est la fonction indicatrice définie selon : 1t =1, quelqu'en soit t. Dans le domaine fréquentiel,
l'ondelette de Haar est donnée par :
2 πγ
sin
2
gˆ Haar (γ ) = j 2 (4.46)
πγ
A cause de fait que l'enveloppe fréquentielle de g décroisse avec γ, la localisation fréquentielle
offerte par l'ondelette de Haar est faible.
Haar
Imag(Haar^)
La caractéristique de base de cette fonction est le support compact en temps, ce qui nous
autorise d'utiliser cette fonction pour la détection des transitoires, dans le domaine temporel.
B. Ondelette de Shannon
L'idée de base de la conception de cette fonction est d'assurer un support fréquentiel compact
sur un certain intervalle, défini en terme de fréquence centrale, γc, et la largeur de bande désirée, γb :
(γ c − γ b / 2;γ c + γ b / 2] . La transformée de Fourier de cette ondelette s'écrit alors :
1, γ ∈ (γ c − γ b / 2; γ c + γ b / 2]
gˆ Shannon (γ ) = (4.47)
0, sinon
L'expression temporelle de l'ondelette de Shannon devient :
sin (πγ b t )
g Shannon (t ) = γ b−1 / 2 e j 2πγ ct (4.48)
πt
A l'opposée de l'ondelette de Haar, l'ondelette de Shannon permet d'avoir une bonne
localisation fréquentielle tandis que la localisation temporelle sera très faible, car l'enveloppe
temporelle décroît en 1/t.
La fonction ondelette de Shannon est un exemple d'ondelette construite dans le domaine
fréquentiel.
Les ondelettes B-spline représentent une généralisation de l'ondelette de Shannon. Elles sont
définies en association avec un ensemble de fonctions θm (la fonction B-spline d'ordre m), définies
selon :
∆ sin πt m
θ m (t ) = ; m = 1, 2,3,.... (4.49)
πt
Dans le domaine fréquentiel, l'expression de ces fonctions est :
m fois
La fonction ondelette B-spline d'ordre m est définie, dans le domaine fréquentiel, selon :
∆
gˆ m =τ γ c D mγ −1θˆ m (4.51)
b
τ est l'opérateur de translation et D - l'opérateur d'échelle.
En utilisant les propriétés de la transformée de Fourier on trouve l'expression temporelle d'une
fonction ondelettes B-spline d'ordre m :
m
πγ b
(1 / 2 −m) sin
γb m
g m (t ) = e j 2πγ ct (4.52)
m πt
L'intérêt pour les ondelettes B-spline est dû au compromis satisfaisant entre les localisations
temporelle et fréquentielle : comme observé sur la figure suivante l'ondelette B-spline est
relativement bien localisée en temps et en fréquence.
B-spline : γc =0.14; γb=0.2; m=2
Temps
TF de B-spline
Fréquence
Figure 4.8. Exemple de fonction ondelette B-spline
D. L'ondelette de Morlet
Comme illustré dans les exemples précédents le choix d'une ondelette comporte un certain
compromis entre la localisation temporelle et fréquentielle. Dans ce contexte, une idée naturelle est
d'utiliser la fonction gaussienne (le meilleur compromis entre les résolutions temporelle et
fréquentielle - voir le sous-chapitre précédent) modulée, pour couvrir la bande de fréquence désirée,
qui est déterminée selon la relation :
γ b = ∫ γ 2 gˆ Morlet (γ )dγ (4.53)
γ b (γ − γ c )2
gˆ Morlet (γ ) = e −π
2
(4.55)
Cette ondelette n'a pas une moyenne nulle, donc, pour l'utilisation de celle-ci il faudra
effectuer quelques modifications.
où τt Dsg est la version dilatée (par s) et translatée (par t) de g, écrit d'une manière explicite selon :
(τ t Ds g )(σ ) =
s g ( s(t − σ ))
1/ 2
(4.57)
Ainsi, la TOC d'un signal mono-dimensionnel est une fonction bidimensionnelle des variables
réelles t et s et peut être écrite selon :
( )
∆
(W g f )(t, s ) = f , τ t D s g = f (t ) * D s g * (− t ) (4.58)
Pour des valeurs particulières de s et t la TOC associe au signal f une valeur numérique
complexe qui décrit quantitativement la similarité entre ce signal et la version dilatée de s et
translatée de t de l'ondelette g. En utilisant la relation (4.57), (4.58) peut être écrite d'une manière
intégrale selon :
(Wg f )(t, s) = s 1 / 2 ∫ f (σ )g * (t − σ )dσ (4.59)
R
Selon l'équation (4.(8), la transformée Wg f peut être interprétée comme la sortie d'un banc
infini de filtres linéaires, décrits par la réponse impulsionelles Dsg* (figure 4.9).
f Ds g* (Wg f)(t,s)
Figure 4.9. La TOC vue comme la sortie d'un banc infini de filtres linéaires
( ) ( ) ( )
1. (Linéarité) W g (af1 + bf 2 ) (t , s ) = a W g f 1 (t , s ) + b W g f 2 (t , s ); ( ∀) a, b ∈ R, (∀) f 1 , f 2 ∈ L2 (R )
( ) ( )
2. (Invariance en temps) W g (τ b f ) (t , s ) = W g f (t − b, s )
3. (Dilatation) (W g ( D a f ))(t , s ) = (W g f )(at , a −1 s ); a ≠ 0
L'inversibilité de la TOC est une des plus importantes propriétés de celle-ci. L'idée pour la
reconstruction à partir de TOC est basée sur l'interprétation de cette transformation comme la sortie
d'un banc infini de filtres linéaires décrits par leurs réponses impulsionelles Dsg* . D'une manière
ENSIETA, Janvier 2002 61
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
4. Représentations temps-fréquence linéaires
Dans ce cas, tous les signaux f peuvent être reconstruits à partir de la TOC (f∗g) selon :
f = ( f ∗ g ) ∗ h = TF −1 fˆ ⋅ gˆ ⋅ gˆ * ⋅ 2 ⋅ 1 suppfˆ
1
(4.60)
gˆ
∆ 1
où hˆ = gˆ * ⋅ 2 ⋅ 1suppfˆ représente le filtre inverse de g sur tout le support fréquentiel de fˆ . Grâce
gˆ
aux conditions imposées ci-dessus, le filtre h est bien défini. La figure suivante présente, de manière
schématique, l'implémentation d'un seul filtre inverse, suggérée par la relation (4.60).
f g g(-t) TF −1 gˆ ( )
−2 f
g -1
Figure 4.10. L'implémentation du filtre inverse de g
Si on considère le cas d'un banc de filtres continus {gs}, indexés par s; on suppose que
l'ensemble {gs } satisfait la condition suivante :
2
0 < ∫ gˆ s ds < ∞ (4.61)
En généralisant le concept présenté sur la figure 4.10., le banc inverse de filtres {gs } sera
implémenté selon le schéma présenté sur la figure suivante :
−1
h = TF −1 ∫ gˆ s ds
2
f gs g s(-t) ∫ ds f
g s -1
−1 1
h = TF 2
(4.64)
∫ Ds −1 gˆ ds
Le théorème suivant donne l'expression de la TOC inverse, dans le cas d'un signal à energie
finie.
Théorème 4.1. (TOC inverse) Soit F=Wg f la TOC d'un signal f∈L2 (R) et g∈ L2 (R)\{0} telle que
∆
gˆ (γ ) dγ < ∞
−1 2
C = ∫R γ (4.65)
( )
et l'application W g− 1 : W g L2 (R ) a L2 ( R) définie selon :
∆
W g−1 F = C −1 ∫R F (⋅, s ) ∗ ( Ds g )ds =
(4.66)
∫R ∫R F (σ , s )(τ σ Ds g )dsd σ
−1
=C
Alors f = W g−1 F .
Demonstration :
En multipliant, les deux membres, par Ds−1 gˆ et, en intégrant pour toutes les échelles s, on
obtient :
(
∫s ≠0 W g f )^ (γ , s )(D s gˆ )(γ ) = ∫R fˆ ⋅ Ds
−1 −1
2
gˆ (γ )ds =
= fˆ (γ )∫R s
−1
( )
−1
gˆ s γ
2
ds = (4.68)
−1
u =s γ
fˆ (γ )∫R u gˆ (u ) du
−1 2
=
(( ) )
( 4.65)
f (t ) = C −1 ∫R W g f (⋅, s ) ∗ ( D s g ) (t )ds = W g−1 F (4.70)
En fait, la relation (4.65) et la condition auxiliaire C>0 (qui est verifiée par n'importe quelle
fonction différente de 0) représente la condition d'admissibilité qui garantit l'existence de la TOC
inverse. D'une manière alternative, on peut dire que la TOC existe si le terme γ −1 / 2 gˆ (γ ) ∈ L2 (R ) .
La relation (4.65) est verifié par toutes les fonctions pour lesquelles gˆ (0 ) = 0 , donc toutes les
fonctions oscillantes. En conclusion, toutes les fonctions g∈L1 (R) ⊂ L2 (R) (absolument intégrable) à
moyenne nulle peuvent constituer des fonctions ondelettes pour lesquelles il est possible de définir la
TOC inverse.
La transformée en ondelettes discrète (TOD) est générée par l'échantillonnage, dans le plan
temps-échelle, de la TOC correspondante. Ainsi, la TOD est caractérisée par les deux éléments :
Les aspects sur le choix de la fonction d'ondelette d'analyse ont été discutés dans les sections
précédents. Le critère de base est donné par la condition d'admissibilité. De plus, pour des
applications où la reconstruction est indispensable, on introduit la condition supplémentaire
d'orthogonalité ou de bi-orthogonalité.
L'existence de ce réseau est imposée par des nécessitées pratiques : la relation (4.58), qui
donne l'expression de la TOC, ne peut être évaluée que avec une précision finie, associée au
calculateur. Par conséquent, il faudra restreindre le domaine continu de variation de t et s à un
∆
{
ensemble discret Γ ={(t m, n , s n )} qui va générer un ensemble "fini" d’ondelettes : τ tm , n D sn g .}
Théoriquement, on peut choisir n'import quel réseau d'échantillonnage, mais en pratique, pour
assurer la reconstruction parfaite, on utilise un réseau d'échantillonnage dyadique (voir la figure
4.12).
∆
{(
ΓD = 2 −n m, 2 n )}
m, n∈Z (4.71)
Echelle
23
22
21
20 Temps
1 2 3
Figure 4.12. Réseau d'échantillonnage dyadique dans le plant temps-échelle
En conclusion, le terme transformation en ondelettes discrète est utilisé pour indiquer un type
particulière d'échantillonnage de la TOC, qui satisfait les conditions suivantes :
a. Le réseau d'échantillonnage temps-échelle doit être dyadique;
b. La famille des ondelette {τ t Ds g }(t , s )∈Γ doit former une base orthonormale pour l'espace
D
d'intérêt;
c. L'ondelette d'analyse doit avoir un support compact (ainsi, toute la famille générée aura un
support compact).
Sous ces conditions, il existe un algorithme rapide (pyramidal) pour le calcul de la TOD, en
utilisant uniquement des filtres de réponse impulsionelle finie. Cet algorithme sera détaillé dans le
chapitre suivant.
Le fort intérêt pour la TOD est dû à deux facteurs majeurs. Premièrement, les coefficients issus
de la TOD expriment la ressemblance entre le signal traité et les ondelettes associées, exactement
comme dans le cas de la TOC. De plus, le nombre des coefficients sera fini ce qui nous permet
d'appliquer cette approche sur des systèmes numériques (ordinateurs, processeurs numériques du
signal etc). Deuxièmement, les conditions imposées ci-dessus nous assurent la reconstruction parfaite
du signal initial, à partir des coefficients de la TOD. Par conséquent, cette approche est bien adaptée
pour des applications comme le débruitage ou la compression des données.
Dans le paragraphe (4.1) on a vu qu'à partir de la TFCT (qui peut être interprétée comme la
projection d'un signal sur un ensemble de fonctions de base) on peut générer une distribution
énergétique du signal qu'on appelle le spectrogramme. Précédemment on a montré que la TOC
représente aussi une projection du signal sur un ensemble des fonctions ondelettes.
υ
Ainsi, la TOC peut se rattacher à l’analyse temps-fréquence en posant υ = 0 , ce qui permet de
a
construire la scalogramme défini par :
2
( υ
)
ρ (t, υ ) = Wg f t, 0
a
(4.72)
Pour comparaison avec la TFCT, on présente sur la figure suivante les bancs de filtres
correspondants à la TFCT et à la TO et, également, les pavages temps-fréquence correspondants.
S(υ ) S(υ )
υ υ
a. Banc de filtres de TFCT : Largeur de c. Banc de filtres de TO : Largeur de
bande - constante bande – croissante avec la fréquence
Fréquence
Fréquence
Temps Temps
b. Le pavage T-F généré par TFCT d. Le pavage T-F généré par TO
La différence principale avec la transformée de Fourier à court terme est que les résolutions ne
sont pas identiques en tous les points du plan temps-fréquence :
• dans le cas de changements brusques ou de structures très localisées, la transformée en
ondelettes existera essentiellement dans le domaine des petites échelles, aptes à «voir » des
détails fins du signal; cependant, puisque ces petites échelles sont traduites par une ondelette
analysante de support temporel réduit, il s’en suit que son support fréquentiel est étendu, ce
qui limite la résolution fréquentielle absolue;
• réciproquement, une résolution fréquentielle importante n’est possible qu’avec une ondelette
analysante longue, soit à de grandes échelles d’observation. Dans la zone du plan temps-
fréquence où le gain en résolution fréquentielle est possible, celui-ci se fait donc encore au
détriment de la résolution temporelle.
∞ ∞
( )
∫−∞ ∫−∞ W g f (t , s ) dt
ds
s
=Ef
2
(4.73)
Cette relation justifie l'attribut de "distribution énergétique du signal" dans le plan temps-
échelle. Comme dans le cas du spectrogramme, le scalogramme est aussi affecté par le principe
d'incertitude. En fait, la résolution temporelle est proportionnelle à s et la résolution fréquentielle est
inversement proportionnelle à s.
D’autres propriétés temps-fréquence de la TOC seront discutées dans le chapitre suivant. Parmi
celles-ci, on peut citer la capacité d'analyser la régularité locale d'un signal, par rapport à la TF qui
permet d'analyser globalement un signal donné. Cette propriété est induite par la plus importante
caractéristique d'une ondelette : le nombre de ses moments nuls.
Signal d’analyse f
Γm , n = (t m , n , s m )
t m , n = n∆ et s m = a m0
a 0 ∈ (1, 2 ); pour a 0 = 2 − DWT
TOS du signal f
L’idée de la TOS est de construire un banc de filtres, à partir de l’ondelette mère g et,
contrairement à la TOD, on va concevoir ce banc dans le domaine fréquentiel, en utilisant la
transformation de Fourier rapide (Fast Fourier Transform - FFT). Un exemple d’un tel banc, conçu à
partir de l’ondelette Morlet, est présenté sur la même figure. Le résultat de ce filtrage est similaire au
résultat d’une TOC. Pour obtenir la version discrète on choisit un réseau d’échantillonnage
logarithmique, avec un paramètre a0 qui contrôle le recouvrement entre les fonctions de transfert des
filtres et, mathématiquement, le degré de redondance de la transformation. Pour a0 =2 on obtient la
TOD.
L’élimination de la contrainte d’orthonormalité offre une large possibilité de choix de la
fonction d’ondelettes, qui peut être bien adaptée sur la structure du signal. Les avantages de TOS – la
robustesse contre le bruit et l’absence des termes d’interférence temps-fréquence – sont dus à un haut
degré de redondance, offert par la structure «cadre » de cette transformation. Ces avantages sont
illustrés dans l’exemple présenté en figure 4.14 : pour un signal formé par 7 atomes, la TOS fournit
ENSIETA, Janvier 2002 66
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
4. Représentations temps-fréquence linéaires
une RTF lisible, sans termes d’interférences. On a utilisé le banc de filtres présenté sur la même
figure.
Pour plus de détails, les lecteurs peuvent consulter la référence [4].
Néanmoins, à cause du fait que la famille utilisée n’est pas orthogonale, on aura toujours des
problèmes de reconstruction. En conséquence, cette technique ne peut être utilisée que dans des
applications pour lesquelles la reconstruction n’est pas forcement nécessaire (par exemple, pour la
classification des signaux où on s’intéresse uniquement de l’extraction des caractéristiques du signal).
References
[1] S. Qian, D. Chen – “Joint Time-Frequency Analysis” , Prentice Hall, New Jersey, 1998
[2] P. Flandrin – “Représentations temps-fréquence” , Ed. Hermes, Paris, 1993
[3] L. Cohen – “Time-frequency analysis”, Prentice Hall, New Jersey, 1995
[4] S. Mallat – “A Wavelet Tour of signal processing”, Academic Press, 1998
[5] A. Theolis – “Computational Signal Processing with Wavelet ”, Birkhauser Press, Boston, 1998
Exercices et problèmes
a) Identifier quelle est le modèle non-stationnaire adopté pour la construction de la TFCT (voir la
section 3.3).
b) Montrer que les marginales en temps et en fréquence du spectrogramme ont pour expression 4.7
et 4.8.
c) Justifier la propriété d’invariance par la translation temporelle et fréquentielle, dans le cas du
spectrogramme.
2. (Calcul de la TFCT) Calculer l’expression de la TFCT d’une sinusoïde s(t ) = e j ω 0t pour une
fenêtre gaussienne h (t ) = a π ( ) 1 / 4 −α t 2 / 2
e . Le même exercice que 2 pour une impulsion à t=t0 :
s(t ) = 2π δ (t − t 0 ) .
En utilisant la fenêtre h (t ) = a π
gaussienne ( ) 1 / 4 −α t 2 / 2
e , donnez l’expression du
spectrogramme. Commentaires sur le choix de la fenêtre.
8. (Transformée de Gabor) Quelles sont les différences majeures entre la décomposition en série de
Fourier et en série de Gabor?
9. (Transformée de Gabor) A partir de la relation (4.33), retrouver la version discrète de l'identité de
Wexler-Raz.
10. (Transformée de Gabor) On suppose la transformée de Gabor d'un signal chirp pour deux taux de
sur-échantillonage.
a) Quelle est la relation d'ordre entre a1 et a2 ?
b) Est-ce que la représentation graphique des fonctions duales, dans ces deux cas, aurait-elle été
suffisante pour arriver à la même conclusion ?
12. (Transformée ondelette continue) Prouver les propriétés de linéarité, invariance et dilatation de la
TOC.
{
Γa = a −n m, a n .}
b) La propriété d'invariance est-elle conservée ?
c) Comparer l'expression obtenue au point a) avec celle d'une fonction de Gabor. A partir de cette
comparaison, quel est l'avantage des ondelettes par rapport aux atomes de Gabor ?
16. (Calcul de la TOC) Montrer que la TOC d'une fonction Dirac δ(x 0 ) vaut sg (s ( x0 − t )) (s – indice
17. (TOS) Expliquer l'importance du degré de redondance dans le cas de TOS. Montrer, à partir du
banc de filtres présenté sur la figure 4.14, la signification physique de celui-ci.
5
ANALYSE MULTIRESOLUTION ET PAQUET D'ONDELETTES
Définition 5.1.1.(Analyse Multi-résolution) Une suite V j { }j∈Z de sous-espaces fermés de L2(R) est une
analyse multi-résolution si les 6 propriétés suivantes sont vérifiées :
( )
1. ∀( j , k ) ∈ Z 2 , f (t ) ∈ V j ⇔ f t − 2 j k ∈ V j (5.1)
2. ∀j ∈ Z , V j +1 ⊂ V j (5.2)
3. ∀j ∈ Z , f (t ) ∈ V j ⇔ f ∈ V j +1
t
(5.3)
2
∞
4. U V j = L2 (R ) (5.4)
j = −∞
∞
5. I V j = {0} (5.5)
j = −∞
6. Il existe θ ∈ V0 telle que {θ (t − n )}n∈Z soit une base de Riesz de V0 .
Pour une meilleure compréhension, donnons les interprétations intuitives de ces propriétés.
La première (relation 5.1) montre que Vj+1 est l'image de Vj par une dilatation d'un facteur 2;
autrement dit, il existe une grille fréquentielle sous-jacente en progression géométrique. La deuxième
propriété (relation 5.2) montre que pour tout j, Vj+1 est un sous-espace de Vj, ce qui revient à dire
qu'un signal basse résolution est aussi un signal à haute résolution.
Les relations 5.4 et, respectivement, 5.5 montrent que l'intersection des Vj est réduite à 0 dans
L2 (à résolution minimale, on perd toute l'image) et que la réunion des Vj est dense dans L2 (à la
résolution infinie, on reproduit parfaitement tous les signaux). La condition (5.3) assure que les
espaces Vm correspondent à différentes résolutions tandis que l'invariance par translation :
(
f ∈ Vm → f t − 2 m n ∈ Vm , ∀n ∈ Z ) (5.6)
est une conséquence de 5.1.
A partir de cette définition, on peut présenter dans la suite les propriétés de base de l'analyse
multi-résolution. Pour cela, on définit l'opérateur Pm de projection orthogonale sur Vm .
Théorème 5.1.(Mallat et Meyer) Soit V j { }j∈Z une analyse multi-résolution et φ la fonction d'échelle
dont la transformée de Fourier vaut
θˆ (ω )
φˆ(ω ) = (5.7)
1/ 2
∞ 2
∑ k =−∞ θˆ(ω + 2 kπ )
Soit φ j ,n (t ) =
t−n
1
{ }
φ j . La famille φ j ,n n∈Z est une base orthogonale pour Vj, quelque soit j∈Z.
2j 2
La demonstration de ce théorème est donnée en [1, pag. 225].
A partir du résultat issu de ce théorème la projection orthogonale de f en Vj peut être écrite par
:
∞
PV j = ∑ f , φ j ,n φ j ,n (5.8)
n= −∞
Le produit scalaire
a j [n] =
f , φ j ,n =
∞
∫−∞
t − 2 j n
f (t )
φ
j 2j
1
dt = f * φ *j 2 j n
( )
(5.9)
2
L'énergie de la transformée de Fourier φ est concentrée sur l'intervalle [-π;π], comme il est
ˆ
illustré sur la figure 5.1. pour une ondelette spline cubique.
φ(t) TF {φ(t)}
( )
La transformée de Fourier 2 j φˆ * 2 j ω de φ j* (t) est essentiellement centrée en [-2-jπ,2-jπ]. Par
conséquent, l'approximation discrète de aj[n] peut être interprétée comme le résultat d'un filtrage
passe-bas du signal f échantillonné aux intervalles 2j.
Néanmoins, l'orthogonalité impose des contraintes qui peuvent ne pas être souhaitables. L'une
des plus importantes est qu'une fonction d'échelle φ orthogonale à support compact ne peut pas être
symétrique et continue. La propriété de symétrie est utile pour l'analyse des signaux de longueur finie.
Certaines de ces restriction (notamment sur la symétrie) peuvent être attenuées en utilisant des
analyses multirésolutions biorthogonales. Ainsi, une paire [(V j),(V * l)] d'analyses multirésolutions
forme un système biorthogonal si et seulement si
L2 ( R ) = V0 ⊕ V0* ( ) ⊥
(5.10)
Alors V 0 admet une base de Riesz de la forme θ (t-n), n décrivant Z, telle que les translatés de
* *
Une analyse multi-résolution est entièrement caractérisée par la fonction d'échelle φ qui
génère une base orthogonale pour tout l'espace Vj. La propriété (5.2) impose que ∀j ∈ Z , V j +1 ⊂ V j .
En particulier 2-1/2φ(t/2) ∈V1 ⊂ V0 . Lorsque {φ (t − n )}n∈Z est une base orthonormale sur V0 on peut
écrire :
1 1 ∞
φ = ∑ h[n]φ (t − n ) (5.12)
2 2 n=−∞
avec
1 1
h[n] = φ , φ (t − n ) (5.13)
2 2
L'expression (5.12) s'appelle l' équation d'échelle est montre que φ(t/2) est une combinaison
linéaire des φ(t-n). La séquence h[n] peut être interprétée comme la réponse impulsionelle d'un filtre
discret.
Dans le domaine fréquentiel, (5.12) s'écrit selon :
φˆ(2ω ) = h(ω )φˆ(ω )
1 ˆ
(5.14)
2
∞
pour hˆ (ω ) = ∑ h[n ]e − jnω . Pour p>0 quelconque la relation (5.14) s'écrit :
n= −∞
(
φˆ 2 − p+1ω = ) (
1 ˆ −p ˆ −p
2
h2 ωφ 2 ω )( ) (5.15)
Théorème 5.2.(Mallat et Meyer) Soit φ ∈ L2 (R) une fonction d'échelle intégrable. La série de Fourier
de h[n] = 2 −1/ 2 φ (t / 2 ), φ (t − n ) satisfait
∀ω ∈ R , hˆ (ω ) + hˆ (ω + π ) = 2
2 2
(5.18)
et
hˆ (0 ) = 2 (5.19)
Ainsi, si ĥ (ω ) vérifie (5.18) et (5.19) et si les conditions suivantes sont verifiées :
− ĥ (ω ) est périodique de periode 2π et différentiable au voisinage de ω=0 ;
− inf hˆ (ω ) > 0 (5.20)
ω∈[−π / 2,π / 2]
alors
φ (ω ) = ∏
ˆ (
P hˆ 2 − p ω ) (5.21)
p =1
2
Les ondelettes orthogonales portent les détails nécessaires pour augmenter l'approximation du
signal. Les approximations de f à l'échelle 2j et 2j-1 sont respectivement égales à leurs projections sur
Vj et Vj-1. On sait que Vj est inclus dans Vj-1. Soit Wj la partie complémentaire de Vj dans Vj-1 :
V j −1 = V j ⊕ W j (5.22)
La projection orthogonale de f sur Vj-1 peut être décomposée comme la somme des projections
orthogonales sur Vj et Wj :
PV j−1 f = PV j f + PW j f (5.23)
La projection PW j f donne les détails de f qui apparaissent à l'échelle 2j-1 mais qui
disparaissent à l'échelle 2j. Le théorème suivant prouve que on peut construire une base orthogonal de
Wj par la translation et la modification d'échelle d'une ondelette ψ.
avec
gˆ (ω ) = e −i ω hˆ * (ω + π ) (5.25)
Soit
t −2 jn
j ,n (t ) =
1
ψ ψ (5.26)
j 2j
2
Pour chacune des échelles 2j, ψ { j,n }n∈Z est une base orthonormale de Wj. Pour toutes les échelles
{ψ j,n }( j,n)∈Z 2 est une base orthonormale de L2 (R).
La demonstration de ce théorème (voir [1, pag. 236]) est basée sur le lemme suivant.
Lemme 5.1. La famille ψ { j,n }n∈Z est une base orthonormale pour Wj si et seulement si
gˆ (ω ) + gˆ (ω + π ) = 2
2 2
(5.27)
et
gˆ (ω )hˆ * (ω ) + gˆ (ω + π )hˆ * (ω + π ) = 0 (5.28)
Il existe plusieurs applications de bases d'ondelette qui exploitent leurs capacité d'approximer
les classes des fonctions particulières par quelques coefficients ondelette différents de 0. A titre
d’exemple on peut citer la compression ou le debruitage des signaux. Ainsi, la construction de ψ doit
être optimisée pour produire un nombre maximal de coefficients qui sont proches de 0. Ceci dépend
seulement de quelques paramètres : la régularité de f, le nombre des moments nuls de ψ et la taille de
son support [1]. Par la suite on décrira les contraintes qu'il faut imposer à ĥ (ω ) pour pouvoir
construire une fonctions ψ adaptée à l'application souhaitée.
c'est-à-dire que ψ est orthogonale à tous les polynômes d'ordre p (exercice 3). Dans [1, section 6.1.3.]
il est montré que si f est régulière et si ψ a un nombre suffisant de moments nuls, les coefficients
deduits du produit scalaire f ,ψ j ,n sont petits à l'échelle 2j. En effet, si f est localement dérivable
d'ordre k, alors sur un petit intervalle, elle peut être approximée par des polynômes de Taylor d'ordre
k. Puisque pour k<p, les ondelettes sont orthogonales à ces polynômes de Taylor, alors on obtiendra
de coefficients de petite valeur à cette échelle et, d'ici, l'intérêt d'avoir des ondelettes avec un nombre
important de moments nuls.
Le théorème suivant met en évidence la correspondance entre les moments nuls de ψ et les
dérivées nulles de ψˆ (ω ) à ω = 0 et du nombre de 0 de ĥ (ω ) à ω = π. Il montre également que les
polynômes d'ordre p-1 sont générés par les fonctions d'échelle.
Théorème 5.4. (Moments nuls) Soit ψ et φ une fonction ondelette et une fonction d'échelle qui génère
une base orthogonale. On suppose que ψ (t ) = O 1 + t 2
( )
− p / 2−1
et φ (t ) = O 1 + t
( )
2 − p / 2−1
. Les
quatre conclusions suivantes sont équivalentes :
(i) L'ondelette ψ a p moments nuls.
(ii) ψˆ (ω ) et ses premières p-1 dérivées sont nulles à ω=0.
(iii) ĥ (ω ) et ses premières p-1 dérivées sont nulles à ω=π.
(iv) Pour tout 0≤k<p,
∞
q k (t ) = ∑ n φ (t − n ) est un polynome d' ordre k
k
(5.33)
n = −∞
La demonstration de ce théorème est proposée comme exercice (exercice 7).
La proposition (iv) est appelée la condition de Fix-Strang; elle prouve que ψ a p moments nuls
si et seulement si tous les polynômes d'ordre p-1 peuvent être écrits comme une expansion linéaire de
{φ (t − n )}n∈Z .
• La taille du support
Si une fonction f a une singularité isolée à t 0 (elle n'est pas définie en ce point) et si t 0
t −2 jn
appartient au support de ψ j ,n (t ) =
1
ψ , alors f ,ψ j ,n peut avoir une amplitude
j 2j
2
importante. Si ψ a un support compact de taille K, à chaque échelle 2j, il existe K ondelettes ψ j,n pour
lesquelles leurs supports incluent t 0 . Ainsi, pour réduire le nombre de coefficients à grande amplitude
il faut réduire la taille du support de ψ. La proposition suivante assure la liaison entre la taille du
support de h et le support de φ et ψ.
moments nuls. Il existe plusieurs familles d'ondelette qui essaient de minimiser les effets de ce
compromis. La famille d’ondelettes de Daubechies ([3]), par exemple, est optimale au sens où elles
ont un support minimal pour un nombre de moments nuls donné.
En fait, le choix optimal d'une famille d'ondelettes suppose avoir une connaissance à priori sur
la structure du signal : si f a quelques singularités isolées et elle est très régulière entre ces singularités
alors il faudra choisir une ondelette avec un nombre important de moments nuls pour générer un
grand nombre de petits coefficients.
• Régularité
Dans le paragraphe suivant présente les principales types des ondelettes et leurs propriétés.
Les expressions fréquentielles de ces ondelettes seront déduites à partir de la relation de base, fournie
par le théorème 5.3. :
1 ω ˆ ω 1 jω ˆ * ω ω
ψˆ (ω ) = gˆ φ = exp − h + π φˆ (5.35)
2 2 2 2 2 2 2
L'ondelette de Shannon est construite à partir de l'analyse multi-résolution qui approxime les
fonctions par leurs restrictions aux intervalles basses fréquences, pour φˆ = 1[-π ,π ] et
hˆ (ω ) = 2 1[-π / 2,π / 2] pour ω ∈[-π,π] et à partir de (5.35), on trouve :
exp (− jω / 2 ), si ω ∈ [- 2π ,-π ] ∪ [π ,2π ]
ψˆ (ω ) = (5.36)
0, autrement
Cette ondelette est infiniment dérivable mais son enveloppe décroît selon la loi 1/t à l'infini
(ψˆ (ω ) n'est pas continue en ±π et ±2π) ce qui n'est pas acceptable ni en accord avec la propriété de la
taille de support, qu'on souhaite être le plus petit possible.
L'ondelette de Meyer est une fonction de bande fréquentielle limitée dont la transformée de
Fourier est plus lissée que celle de l'ondelette de Shannon. Cette caractéristique lissée assure une
décroissance plus rapide en temps, et représente un avantage par rapport aux ondelettes de Shannon.
La figure suivante met en évidence ces différences.
ψ^(ω)
ψ(t)
Temps Fréquence
a. Ondelette de Shannon
ψ(t) ψ^(ω)
Les ondelettes de Meyer (figure 5.2.b) sont construites à partir des filtres miroir conjugués
donnés par :
2 , si ω ∈ [- π/3, π/3]
ĥ (ω ) = (5.38)
0, si ω ∈ [- π ,-2π/3] ∪ [2π/3, π ]
Le seul degré de liberté est la forme de ĥ (ω ) dans les bandes de transitions [-2π/3,-π/3]∪
[π/3,2π/3] .
+∞
(
La fonction d'échelle correspondante à cette ondelette φˆ(ω ) = ∏ 2 −1 hˆ 2 − p ω a un support
p=1
)
compact et on peut montrer que :
2 −1/ 2 hˆ (ω / 2), si ω ≤ 4π / 3
φ (ω ) =
ˆ (5.39)
0, si ω > 4π / 3
On peut egalement montrer qu'en utilisant la relation (5.35), la fonction ondelette sera donnée
par :
0 si ω ≤ 2π / 3
-1/2
2 gˆ (ω / 2 ), si 2π/3 ≤ ω ≤ 4π / 3
ψˆ (ω ) = −1 / 2 (5.40)
2 exp (− jω / 2 )hˆ (ω / 4 ) si 4π/3 ≤ ω ≤ 8π / 3
0 si ω > 8π / 3
Les fonctions φ et ψ sont infinitivement dérivables grâce aux supports compacts de leurs
transformées de Fourier. Lorsque φˆ(ω ) = 0 au voisinage de ω=0 toutes ses dérivées sont 0 pour ω=0,
ce qui prouve que ψ a une infinité de moments nuls.
ENSIETA, Janvier 2002 77
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
Les discontinuités de la dérivée d'ordre (n+1) de ĥ (ω ) sont localisées autour des transitions de
bande ω = π / 3,2π / 3 ; dans ce cas, on peut montrer qu'il existe A tel que :
φ (t ) ≤ A(1 + t ) et ψ (t ) ≤ A(1 + t )
−n−1 −n −1
(5.41)
Cette relation nous assure une décroissance rapide de l'ondelette ce qui réduit la taille du
support (avantage par rapport aux ondelettes de Shannon).
Les ondelettes de Meyer-Lemarié sont basées sur les polynômes splines; les expressions
analytiques de la fonctions d'échelle et du filtre miroir conjugué sont :
exp (− j εω )
φˆ(ω ) = (5.42)
ω m +1
S 2m+ 2 (ω )
avec
∞
S n (ω ) = ∑
1
(5.43)
k = −∞ (ω + 2kπ )
n
et, respectivement
− jεω S 2 m+2 (ω )
hˆ (ω ) = exp 2m+1 (5.44)
2 2 S 2m+ 2 (2ω )
où ε=0 si m est impair et ε=1 si m est pair.
Dans ce conditions, en utilisant (5.35) on trouve l'expression de la TF de l'ondelette :
exp (− j εω / 2) S 2 m+2 (ω / 2 + π )
ψˆ (ω ) =
S 2 m+2 (ω )S 2m +2 (ω / 2)
(5.45)
ω m+1
Cette relation montre que l'ondelette ψ détroit d'une manière exponentielle. De plus, comme
cette ondelette est générée à partir d'un polynôme spline d'ordre m, elle sera (m-1) dérivable et ses
dérivées seront continues.
Sur la figure 5.3. on présente la forme temporelle de la fonction d'échelle et d'ondelette pour
m=1 et m=3 (m - l'ordre du polynôme).
φ(t) - m=1 ψ(t)- m=1
L'avantage de ce type d’ondelettes, par rapport aux celles de Meyer ou de Shannon, est la
décroissance rapide en temps.
Les ondelettes de Daubechies sont optimales au sens de la taille du support pour un numbre de
moments nuls donné. La proposition 5.1. prouve que les ondelettes de support compact sont
construites avec des filtres miroir conjugués de réponse impulsionelle finie. On considère un filtre
réel causal h[n] de transformée de Fourier ĥ :
N −1
hˆ (ω ) = ∑ h[n]e
− jn ω
(5.46)
n =0
Pour assurer que ψ a p moments nuls, le théorème 5.4. prouve que ĥ doit avoir un zéro d'ordre
p (la dérivée d'ordre p doit avoir un zéro) à ω=π. Une expression qui satisfait cette demande est basée
(
sur les polynômes 1 + e − j π ) p
et peut être écrite selon :
p
hˆ (ω ) = 2
1 + e − jω
2
R e − jω
( ) (5.47)
La difficulté est de construire le polynôme R de degré minimal m tel que :
hˆ (ω ) + hˆ (ω + π ) = 2
2 2
(5.46)
Théorème 5.5. (Daubechies) Un filtre miroir conjugué réel h, tel que ĥ (ω ) a p zéros à ω=π, a au
moins 2p coefficients non-nuls. Les filtres de Daubechies ont 2p coefficients non-nuls.
Prouve
La demonstration de ce théorème représente également la méthode pour la construction des filtres ondelettes de
Daubechies.
hˆ (ω ) est une fonction paire elle peut être décomposée en série de cosω. Ainsi, R définie
2
Lorsque h[n] est réel,
2 ω
en (5.47) est un polynôme en cosω qui peut également être écrit comme un polynôme P sin :
2
2p
ω ω
hˆ (ω ) = 2 cos
2
P sin 2 (5.47)
2 2
Dans ce cas, la condition de quadrature (5.46) devient :
Lorsque Q1 (y)=(1-y)p et Q2 (y)=yp sont deux polynômes (avec des zéros différents) de degrés
identiques p, conformément à ce théorème, il existe deux polynômes P1 (y) et P2 (y) telle que :
(1 − y ) p P1 ( y ) + y p P2 ( y ) = 1 (5.50)
où P2 (y)=P1 (1-y)=P(1-y) avec
p−1 p − 1 + k
P( y ) = ∑ y k (5.51)
k =0 k
ENSIETA, Janvier 2002 79
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
que (
Re )
− jω 2 2 ω
= P sin
* − jω
. Lorsque les coefficients sont réels, R e
2
( ) ( )
= R e jω , on peut écrire :
Re (
− jω 2
)=Re (
− jω
Re )( )
jω 2 − e jω − e − jω
= P
4
= Q e − jω
(5.52) ( )
Cette factorisation est résolue par la généralisation de cette relation dans tout le plan
complexe, avec la variable z = e − jω :
La proposition suivante présente le cadre pour le calcul des ondelettes de Daubechies à partir
de ces coefficients.
ENSIETA, Janvier 2002 80
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
Proposition 5.2. Si φ(t) est une ondelette avec p moments nuls qui génère une base orthonormale sur
L2 (R) alors elle a un support de taille minimale 2p-1. L'ondelette de Daubechies a un support
minimal [-p+1,p] et la fonction d'échelle correspondante a le support [0,2p-1].
Cette proposition est une conséquence du théorème 2.5. Sur la figure suivante on présente φ
et ψ pour p=4,6,8.
φ(t) φ(t) φ(t)
p=4 p=8
Figure 5.4. Les fonctions d'échelle et d'ondelette de Daubechies avec p moments nuls
Une autre famille d’ondelettes, dérivée des concepts de Daubechies, et celle de Coiflet. La
fonction d'échelle de cette famille doit satisfaire les conditions suivantes :
∞ ∞
Une telle forme de la fonction d'échelle est utile pour fournir une formule quadratique précise.
Si f est k fois dérivable autour de 2Jn, avec k<p alors l'expansion de Taylor de f montre que
( ) (
2 −J / 2 f , φ J , n ≈ f 2 J n + O 2 (k +1) n (5.55) )
J
Ceci nous montre qu’à l'échelle 2 les coefficients d'échelle peuvent être approximés par les
échantillons correspondants du signal f, ce qui constitue un grand avantage, de point de vue
implementation. Néanmoins, ceci est au détriment de la taille du support qui devient 3p-1.
Le calcul de cette transformation est basé sur une structure de banc de filtres, qui décompose
successivement chaque approximation PVj f dans une approximation plus lissée PVj +1 f et les
coefficients PW j +1 f correspondants à la différence d’information entre deux « versions » de f à deux
niveaux de résolution consécutifs.
{ }
Lorsque φ j ,n et ψ j, n
n ∈Z
{ } n ∈Z
sont des bases orthonormales pour Vj et Wj les projections dans
ces espaces sont caractérisées par :
a j [ n] = f , φ j ,n et d j [ n] = f ,ψ j , n (5.56)
Le théorème suivant montre que ces coefficients sont calculés par une cascade de
convolutions discrètes et des procédures de sous-échantillonage. Le résultat ci dessous présente une
grande importance, car il nous fournit un outil pratique, très efficace, pour le calcul de la TFR.
Théorème 5.7. (Mallat) Les coefficients définis par (5.56) sont déterminés par :
∞
a j +1 [ p] = ∑ h[n − 2 p]a [n] = a
j j ∗ h [ 2 p] (5.57)
n =− ∞
∞
d j +1 [ p ] = ∑ g[n − 2 p]a [n] = a
j j ∗ g[ 2 p] (5.58)
n =−∞
A la reconstruction on a :
∞ ∞
( (
a j [ p] = ∑ h[ p − 2 n]a j +1 [n ] + ∑ g[ p − 2n ]d [n] = a
j+ 1 j +1 ∗ h[ p] + d j +1 ∗ g[ p] (5.59)
n =−∞ n =−∞
Demonstration
∞
φ j + 1, p = ∑ φ j +1, p , φ j ,n φ j ,n (5.61)
n =−∞
Par changement de variable t’=2-jt-2p on obtient :
∞
1 t − 2 j +1 p 1 t − 2 j n
φ j+1, p , φ j , n = ∫
−∞ 2 j +1
φ φ
2 j+ 1 2 j 2 j
dt =
∞
t
φ φ * ( t − n + 2 p )dt =
1
= ∫
−∞ 2 2
(5.62)
1 t
= φ , φ (t − n + 2 p) = h[n − 2 p]
2 2
En remplaçant l’expression de φ j +1, p , φ j ,n donnée par (5.62) en (5.61) on obtient :
∞
φ j +1, p = ∑ h[n − 2 p]φ
n =−∞
j, n (5.63)
Si on remplace, dans la forme générale des coefficients a j [n] (5.56) les fonctions φj,n par l’expression (5.63) on
retrouve l’expression (5.57).
Pour prouver l’expression (5.58) le calcul est similaire (ceci est proposé comme exercice).
Pour prouver la relation (5.59) on utilise le fait que Wj+1 soit le complément orthogonal de Vj+1 en Vj ce qui
représente, en fait, l’union de deux bases {φ }
j +1, n
n ∈Z
et {ψ } j + 1, n
n ∈Z
. Ainsi, toute fonction φj,p peut être décomposée
sur cette base :
∞ ∞
φj,p = ∑
n =−∞
φ j , p , φ j +1, n φ j+ 1, n + ∑ φ ,ψ ψ
n =−∞
j,p j +1 ,n j + 1, n (5.64)
Si on applique dans les deux membres de cette équation le produit scalaire avec f on retrouve directement la
relation (5.59).
***
Sur la figure suivante on présente, dune manière schématique, les opérations nécessaires pour
calculer les coefficients an et dn .
aj h ↓2 a j+1 h ↓2 a j+2
g ↓2 d j+1 g ↓2 d j+2
a. TOR directe
a j+2 ↑2 h a j+1 ↑2 h aj
d j+2 g g
↑2 d j+1 ↑2
b. TOR inverse
Le théorème 5.7. fournit une technique optimale, de point de vue implementation, pour le
calcul de la TOR. A partir d’un vecteur initial contenant 2N échantillons (en pratique, pour un temps
de calcul minimal, on préfère avoir des signaux d’une taille dyadique [1]), on crée deux sous-vecteurs
de 2N-1 échantillons. L’un est obtenu en filtrant passe-bas (avec le filtre h) et l’autre en filtrant passe-
haut (avec le filtre g). On répète cette procédure sur la version passe-bas. Sur la figure suivante on
présente le cas d’un vecteur de N=23 échantillons.
h : filtre passe-bas x0 x1 x2 x3 x4 x5 x6 x7 Vecteur original
g : filtre passe-haut
h g
a0 a1 a2 a3 d0 d1 d2 d3
h g
h g
aaa daa
Sur la figure suivante on présente le résultat de la TOR sur 6 niveaux de décomposition, pour
un chirp bruité.
Sur cette figure on observe les détails à chaque niveau de décomposition et l’approximation
sur le dernier niveau.
TOR 2D
Les notions définies ci-dessus peuvent être généralisées dans le cas bi-dimensionel. Ainsi,
cette généralisation fournit un outil efficace pour le traitement des images, en utilisant les techniques
par ondelettes. Tous les aspects mathématiques sont décrits en [1, pag. 306-313] ; par la suite on
présentera brièvement les notions théoriques de base liées à la TOR 2D.
Dans le cas 2D, on parle de l’analyse multi-résolution séparable (généralisation de l’analyse
multi-résolution 1D, [1]). En conséquence, les fonctions d’échelle et d’ondelette s’écrivent selon :
Φ ( x) = φ ( s)φ ( t )
Ψ( x ) = {ψ ( s)ψ ( t ) ,ψ ( s) φ ( t ) , φ ( s)ψ ( t ) }
(5.67)
{ } (5.68)
Ψ j, k , l ( x ) = ψ j , k ( s )ψ j, l ( t ) , ψ j, k ( s) φ j , l ( t ) , φ j, k ( s )ψ j, l ( t )
Sur la figure suivante on présente la fonction ondelette et échelle bi-dimensionelle, obtenues à
partir de l’ondelette de Daubechies d’ordre 4.
Sur cette figure on remarque le caractère passe-bas 2D de la fonctions d’échelle et celui passe-
haut de la fonction ondelette. Ceci nous permettra de définir la TOR2D en utilisant les filtres 2D
passe-bas et passe-haut, définis de la même manière que les filtres 1D.
{
L’ensemble Φ 0, k ,l , Ψ j, k , l } j ≥ 0 , k , l ∈Z
forme une analyse multi-résolution séparable en 2D. Pour
effectuer une TOR 2D il existe deux méthodes :
- La méthode du quinconce. Cette méthode consiste à utiliser des filtres de même dimension
que le signal à analyser. Le nombre d’opérations nécessaires au filtrage est assez important et,
pour cette raison, on lui préfère bien souvent la deuxième méthode.
ENSIETA, Janvier 2002 85
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
- La méthode de la séparabilité du noyau. Elle consiste à réaliser une TOR 1D dans chacune
des dimensions du signal. Pour une image, on réalise donc une TOR sur chaque ligne puis une
TOR sur chaque colonnes. Un des avantages de cette méthode est qu’elle est directive en
fréquence. Dans ce cas, les opérateurs « ondelette » de décomposition et de reconstruction 2D
ont la structure définie sur la figure suivante :
Lignes Colonnes
aj h ↓2 h ↓2 a j+1
g ↓2 d 1j+1
g ↓2 h ↓2 d 2j +1
g ↓2 d 3j +1
Colonnes Lignes
a j+1 h ↑2
h
↑2 aj
g
d 1j+1 ↑2
d 2j +1 h g
↑2 ↑2
d 3j +1 g
↑2
La disposition des coefficients d’approximation et de détails, selon cette méthode, est illustrée
sur la figure suivante.
a L+ 3 d L2 +3 d 2L+2
1 3
d L+ 3 d L +3 2
3
d L+1
1
d L+ 2
d L+2
d 1L+1 3
d L+1
Comme pour TOR 1D, si on a une image 2Nx2N, on ne peut faire au maximum que N
décompositions. Dans le cas bi-dimensionnel, ces algorithmes doivent être modifiés pour ne pas
effectuer la décomposition sur N niveaux de chaque ligne ou de chaque colonnes de l’image. Il suffit
d’effectuer une décomposition et une seule par ligne et par colonne et par niveau. Puis on
recommence avec 2 fois moins d'échantillons par colonne et par ligne (donc 4 fois moins
d’échantillons au total).
Sur la figure suivante on présente un exemple de TOR 2D sur 2 niveaux de décomposition.
Les sous-espaces de l’image x Disposition spatiale des sous-espaces
Niveau 1
Niveau 2
La transformation par ondelette discrète rapide décompose les signaux en composants passe-
bas et passe-haut sous-échantillonés d’un facteur 2. L’idée d’implémentation d’une telle
transformation par un banc de filtres est apparue en 1976, quand Croisier, Esteban et Galand ont
découvert qu’il est possible de réaliser la décomposition et la reconstruction par des filtres miroir
quadratique. Le problème était que, hormis le filtre de Haar, les autres familles de filtres n’avaient
pas une réponse impulsionelle finie, ce qui pouvait induire des distorsions non-linéaires, à cause de la
caractéristique de phase qui n’était pas linéaire. En 1984, Smith et Barnwell [6] ont trouvé les
conditions nécessaires et suffisantes pour obtenir les filtres à réponse impulsionelle finie orthogonaux
qui assurent la reconstruction parfaite ; ils ont appelé ces filtres « filtres miroir conjugué ». Cette
approche a été complétée par les équations biorthogonales de Vetterli. Dans la suite on présente
brièvement ces approches qui constituent la base pour le développement des applications pour
lesquelles la reconstruction est souhaitée.
Par définition, un banc de filtres à deux canaux réalise une convolution d’un signal a0 avec un
filtre passe-bas h [ n] = h[ − n] et un filtre passe-haut g[ n] = g[ − n] et un sous-échantillonage par 2, le
signal obtenu étant :
a1 [ n] = a 0 ∗ h [ 2 n] et d 1[ n] = a 0 ∗ g [ 2n] (5.69)
Le signal reconstruit est obtenu par le filtrage des signaux a1 et d1 , étendus par zéro-padding,
~
avec les filtres duaux passe-bas, h , et passe-haut, ~ g , comme illustré sur la figure suivante.
~
h ↓2 a 1 [n] ↑2 h
a 0 [n]
a 0 [ n]
~
g ↓2 d 1 [n] ↑2 g~
Par la suite, on va voir quelles sont les conditions nécessaires et suffisantes, imposées aux h,
~ ~
a0 = a0 .
g, h , g pour garantir la reconstruction parfaite : ~
• Sous-échantillonage et interpolation
∞
Pour un signal x[n], dont la transformée de Fourier est x$(ω ) = ∑ x[n]e
n =−∞
− jnω
, la transformée de
Fourier de sa version sous-échantillonée y[n]=x[2n] peut être écrite par :
∞
y$( 2ω ) = ∑ x[ 2 n]e − j 2nω = ( x$(ω ) + x$(ω + π ))
1
(5.71)
n =−∞ 2
La composante x$(ω + π ) introduit un pliage (folding) fréquentiel qui doit être annulé à la
reconstruction.
L’insertion de zéros se définit :
( x[ p] si n=2 p
y[ n] = x[ n] = (5.72)
0 si n = 2 p + 1
dont la transformée de Fourier est :
∞
y$ (ω ) = ∑ x[n]e
n =− ∞
− j 2nω
= x$( 2ω ) (5.73)
Le théorème suivant donne les conditions biorthogonales de Vetterli [7] qui garantit que
a0 = a0 .
~
Théorème 5.8. (Vetterli) Un banc de filtres défini selon (5.69) réalise une reconstruction parfaite si
et seulement si :
hˆ * (ω + π )h (ω ) + gˆ * (ω + π )~
gˆ (ω ) = 0,
~ˆ
(5.74)
et
hˆ * (ω )h (ω ) + gˆ * (ω )~
gˆ (ω ) = 2
~ˆ
(5.75)
Preuve
1
2
(
dˆ1 (2ω ) = aˆ 0 (ω )gˆ * (ω ) + aˆ 0 (ω + π )gˆ * (ω + π ) ) (5.77)
les expressions de aˆ1 (2ω ) et dˆ1 (2ω ) données par (5.76) et (5.77), on obtient :
a~ˆ (ω ) = hˆ * (ω )h (ω ) + gˆ * (ω )g~ˆ (ω )aˆ 0 (ω ) + hˆ * (ω + π )h (ω ) + gˆ * (ω + π )~
gˆ (ω ) aˆ 0 (ω + π ) (5.78')
1 ~ˆ 1 ~ˆ
2 2
On observe, à partir de cette équation, que pour obtenir a 0 = a 0 , quel que soit a 0 , les filtres doivent rejeter le
~
terme â 0 (ω + π ) et assurer un gain unitaire pour â 0 (ω ) , ce qui justifie les relations (5.74) et (5.75).
***
Le théorème 5.8. montre que les filtres de reconstruction h et g sont entièrement définis par
les filtres de décomposition h et g. Sous forme matricielle, on peut réécrire :
hˆ(ω ) gˆ (ω ) ~
ˆ*
h (ω ) = 2
×
hˆ(ω + π ) gˆ (ω + π ) g~ˆ * (ω ) 0 (5.79)
L'inversion de cette matrice conduit à :
= 2 gˆ (ω + π )
h~ˆ * (ω )
g (ω ) ∆(ω ) − h(ω + π )
(5.80)
~ ˆ*
où ∆(ω) est le déterminant :
∆ (ω ) = hˆ (ω ) gˆ (ω + π ) − hˆ(ω + π )gˆ (ω ) (5.81)
Les filtres de reconstruction sont stables si seulement si le déterminant est différent de 0 pour
tout ω ∈[− π , π ] .
Il existe deux motivations pour lesquelles on souhaite que les filtres de décomposition et
reconstruction aient une réponse impulsionelle finie. Tout d'abord, une caractéristique de phase
linéaire assure l'absence des distorsions de phase. Deuxièment, comme on le montrera par la suite,
dans le cas des filtres d'une réponse impulsionelle finie il est possible d'établir une relation simple
entre les filtres de décomposition et reconstruction.
Preuve
***
Le facteur a est le gain et l est l'indice de décalage. Généralement, on prend a=1 et l=0 et,
dans le domaine temporel, (5.83) peut s'écrira selon :
~
( )
Les deux paires de filtres (h,g) et h , g~ jouent un rôle symétrique et peuvent être inversées.
Les résultats présentés dans cette section fournissent la base pour l'implémentation pratique de
la transformée en ondelette en utilisant une structure de banc de filtres.
et par conséquent
~
W j ⊥W j pour j≠j (5.90)
Une analyse multirésolution duale n ‘est pas nécessairement la même que celle générée par les
fonctions primaires (sinon c’est une analyse orthogonale). Equivalent à (5.89), les fonctions duales
doivent vérifier
~
φ ,ψ ( x − l ) = ψ~, φ ( x − l ) (5.91)
~
φ , φ ( x − l ) = δ l et ψ~, φ ( x − l ) = δ l (5.92)
~
En utilisant un argument d’échelle, avec φ j,l et ψ~ j,l définis comme φ et ψ,
~
φ j ,l , φ j ,l ' = δ l −l ' , l , l ' , j ∈ Z ψ~ j ,l ,ψ j ' ,l ' = δ j − j ' δ l −l ' , l , l ' , j , j ' ∈ Z (5.93)
∑k φ (ω + k 2π )φ (ω + k 2π ) = 1
~ˆ ~ˆ
∑k ψ~ˆ (ω + k 2π )ψ~ˆ (ω + k 2π ) = 1
∀ω ∈ R (5.94)
∑k
~ˆ
ψ~ˆ (ω + k 2π )φ (ω + k 2π ) = 1
~ˆ
∑k φ (ω + k 2π )ψ (ω + k 2π ) = 1
~ˆ
~
Comme elles définissent une analyse multi-résolution les fonctions duales φ et ψ~ satisfont :
φ ( x ) = 2∑ hk φ (2 x − k ) et ψ~( x ) = 2 ∑ g~k φ (2 x − k )
~ ~ ~ ~
(5.95)
k k
~ˆ
De même, on définit les fonctions de transfert h et ĝ~ similaires à ĥ et ĝ . Les conditions
(pour la reconstruction parfaite) nécessaires et suffisantes sont alors :
h~ˆ (ω )hˆ * (ω ) + h~ˆ (ω + π )hˆ * (ω + π ) = 1
~ gˆ (ω )gˆ * (ω ) + ~gˆ (ω + π )gˆ * (ω + π ) = 1
∀ω ∈ R ~ (5.96)
gˆ (ω )hˆ (ω ) + gˆ (ω + π )hˆ (ω + π ) = 0
* ~ *
~
∑ h m h n + 2 k = δ k ,0 (5.106)
n
m (ω )m~ 0 (ω ) + m (ω + π )m
*
0 0
~ * 0 (ω + π ) = 1 (5.112)
On arrive donc à la proposition suivante.
Proposition 5.3. Soit m0 un polynôme trigonométrique à coefficients réels satisfaisant (5.110), i.e. m0
peut être écrit
m0 (ω ) = e j χω / 2 (cos ω / 2 ) N p0 (cos ω ) (5.113)
~
avec p0 (-1)≠0, χ=1 si N- nombre naturel impaire, 0 sinon. S'il existe des solutions m 0 à (5.112),
alors elles sont de la même forme que m0 , i.e.
~
m~ (ω ) = e j χω / 2 (cos ω / 2 ) N ~p (cos ω ) (5.114)
0 0
De plus, m0 et m~ sont contraints par
0
p 0 (cos ω ) ~
k −1 k − 1 + n
p 0 (cos ω ) = ∑
n =0
(
sin 2 ω / 2 ) + (sin
n 2
)
ω / 2 R(cos ω )
k
(5.115)
n
~
où N + N = 2k et R est un polynôme impair.
~ vérifiant (5.112), qui a la même symétrie que m0 est alors donné par
Le m 0
On peut se demander s'il ne serait pas plus facile de calculer des filtres biorthogonaux ayant
les propriétés des coiflets; à savoir que φ à des moments nuls sauf le premier qui vaut 1. Cette idée a
permis à Reissell de synthétiser ces filtres.
Avec les notations précédentes, soit m0 (ω ) = 2 −1/ 2 ∑ h n e − jnω , il doit vérifier
n
(
m0 (ω ) = 1 + 1 − e )
− jω 2 N 2
L2 (ω ) = 1 + (1 − cos ω ) N2 P2 (ω ) (5.119)
(
m0 (ω ) = 1 + e jω )2 N1
L1 (ω ) = (1 + cos ω ) N1 P1 (ω ) (5.120)
Ici P1 et P2 sont des polynômes en cosω . La parité des polynômes garantit la symétrie de la
fonction φ résultante.
Egaliser ces deux équations revient à résoudre
(1 + x ) N P1 ( x ) − (1 − x ) N P2 (x ) = 1 (5.121)
où x=cosω et N=N1 =N2 .
Ceci n'autre qu'une équation de Bezout (appelée "équation des coiflets") dont la solution est
N −1 N − 1 + k
P1 ( x ) = 2 − N ∑ 2 −k (1 − x )k + (1 − x) k F ( x ) (5.122)
k =0 k
où F est un polynôme impair arbitraire.
Dans le cas des pseudo-coiflets, supposons qu'on demande une fonction d'échelle symétrique
~
au banc de synthèse, φ , et que l'on veuille trouver la fonction d'échelle correspondante φ au banc
~ ~
d'analyse. Dans cet algorithme, on utilise deux polynômes trigonométriques P et P pour, φ et φ
~
respectivement. L'équation est alors résolue pour P et P , convenablement factorisés. Reissell montre
~
que connaissant P , on peut toujours trouver P vérifiant (5.121).
On définit les fonctions de transfert des filtres d'analyse et de synthèse, resp. m0 et m ~
0
~
satisfaisant les 2N ou 2 N premières conditions sur les moments (5.119) et (5.120) par
~
m (ω ) = (1 + cos ω ) N P (ω ), m
0
~ (ω ) = (1 + cos ω ) N P~(ω )
0 (5.123)
En posant x=cosω, il vient
~ ~
(1 + x ) N + N P (x )P~( x ) − (1 − x ) N + N P(− x )P~(− x ) = 1 (5.124)
Si P ( x ) et P (− x ) n'ont pas de zéros commun, l'équation (5.124) admet une solution unique
~ ~
~ ~
de degré minimum(P(x),P(-x)) avec deg P=N+ N +deg P -1; cela vient du théorème de Bezout. On
montre alors que si P ( x ) est la solution de degré minimum (5.122) alors il existe P de degré
~
~
minimum tel que P et P satisfont l'équation de biorthogonalité (5.124). On a alors
~
degP=3N-2 et deg P =N-1
ENSIETA, Janvier 2002 93
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
5.4.1. Préliminaires
Au début de cette section on va faire un résumé concernant les idées et les principes de base
qui ont été présentés dans les sections 5.1.-5.3. Ceci servira comme point de départ pour les
approches qui seront introduites dans ce sous-chapitre.
Ainsi, on a vu qu'il existe deux façons d’introduire les ondelettes : l’une à travers la
transformation d’ondelette continue (présentée aux sous-chapitre 4.3), l’autre à travers l’analyse
multirésolution (sous-chapitre 5.1.).
En termes de traitement du signal, l’analyse multirésolution est un moyen de décomposer un
signal en composantes ayant chacune leur énergie contenue dans une certaine bande de fréquences.
Chaque composante correspond à un niveau de résolution. On obtient chacun d’eux en projetant le
signal sur les fonctions ondulées : les mêmes pour tous les niveaux, mais prises seulement à l’échelle
convenant à chacun. De plus en se déplaçant dans le temps elles nous permettent de voir l’évolution
temporelle de chaque composante. Les ondelettes sont donc une famille de fonctions localisées en
temps et en fréquence et formant une base orthonormale.
Chaque ondelette est utilisée pour décomposer le signal comme on utilise chaque fonction e inx
dans la transformée de Fourier. La différence est que les fonctions ondelettes sont bien localisées
dans le temps, contrairement aux exponentielles complexes. C’est pourquoi les ondelettes sont
particulièrement intéressantes pour étudier les signaux transitoires. Dans ce cas, on utilise les
ondelettes parce qu’elles nous permettent de diviser le signal en plusieurs bandes de fréquence :
l’énergie du signal à détecter doit être en effet bien localisée en fréquence, alors, dans la bande
correspondante, le rapport signal sur bruit sera considérablement augmenté, et donc nos chances de
détecter le signal seront plus importantes.
Ainsi les premiers niveaux de décomposition correspondent aux détails grossiers du signal et
les derniers aux détails fins.
Si φ ( x) = 2 − j/2 φ ( 2 − j x − k ) avec j, k ∈ Ζ forment une base orthonormale pour les sous-espaces
d’ondelettes Vj dans une analyse en multirésolution V j ⊂ V j+1 ⊂ ... ⊂ L2 ( ℜ) on peut déterminer la
fonction d’ondelette ``mère`` ν ( x) telle que ses dilatations et ses translations :
j
−
ν jk ( x ) = 2 ν ( 2 − j x − k ) avec j , k ∈ Ζ
2
(5.124)
forment une base orthonormale de L2 (ℜ). Les fonctions φ et ν satisfont les équations de dilatation :
φ ( x) = 2 ∑ k h k φ ( 2 x − k ) (5.125)
et
ν( x) = 2 ∑ k g k φ( 2 x − k) (5.126)
où hk et gk sont des filtres miroirs en quadrature liés par (voir le théorème 5.9):
g k = ( −1) k h1− k. (5.127)
La fonction d’échelle φ(x) et son filtre associé hk possèdent les caractéristiques d’un filtre
passe-bas, tandis que l’ondelette ν ( x) et son filtre associé gk possèdent celles d’un filtre passe-haut.
Tous deux sont liés par la relation miroir en quadrature.
H ( ω ) + G( ω ) = 1
2 2
(5.128)
Remarque : Selon les conventions d’écriture, le filtre appelé H est parfois appelé H’ car il correspond
à la fonction de transfert de h-k. De même, la normalisation de la fonction d’échelle et par conséquent
les coefficients des filtres varient d’un auteur à l’autre. On adopte la convention suivante:
1 k =∞ i 2πωk
H (ω ) = 2 ∑ hk e
k = −∞
1 k =∞ (5.129)
G(ω ) = i 2πω k
∑ gk e
2 k =−∞
Ainsi la fonction f(x) (un signal quelconque) peut être représentée par :
f(x) = ∑ j, k∈Ζ d jk ν j,k ( x) (5.130)
x0 x1 x2 x3 x4 x5 x6 x7 x0 x1 x2 x3 x4 x5 x6 x7
h g h g
0 1 2 3 0 1 2 3 0 1 2 3 0 1
a a a a d d d d a a a a d d d2 d3
h g h g h g
aa0 aa1 da0 da1 aa0 aa1 da0 da1 ad0 ad1 dd 0 dd 1
h : filtre passe-bas
h g h g h h g h g
g : filtre passe-haut
aaa daa aaa daa ada dda aad dad add ddd
Figure 5.14: Arbres de décomposition pour une analyse multirésolution et pour une analyse en paquets d’ondelettes
f
ad [ m , k ] = ∑ hm− j d x [ j , k + 1]
j =−∞
∞ (5.132)
dd [m, k ] = ∑ g d [ j , k + 1]
m− j x
f j =−∞
Ainsi, les coefficients d’approximation et de détail associés à une résolution donnée peuvent
se déduire, par filtrage suivi de décimation des coefficients d’approximation et de détail à la
résolution immédiatement supérieure. Opérant de proche en proche, on dispose donc d’un algorithme
rapide et récursif, qui ne met en jeu que deux filtres discrets, dont on itère l’action (figure 5.15). Cet
algorithme est un algorithme pyramidal, établie par Mallat [1], qui a été utilisé antérieurement aux
ondelettes en traitement d’images.
La figure 5.15 présente le schéma d’analyse pour un signal de 8 échantillons, comme celui
présenté sur la figure 5.14. On peut voir que pour effectuer la décomposition en paquets d’ondelettes,
il suffit d’appliquer récursivement l’opérateur d’analyse (voir figure 5.14) pour les coefficients
d’approximation et de détail.
signal original
A
A
H(z) G(z)
A A
↓2 ↓2
↓2 ↓2
A A A A
Opérateur d’analyse (A)
Maintenant, on se demande comment peut-on représenter les coefficients, tout en sachant qu'il
sont caractérisés par trois paramètres : niveau de décomposition, indice de fréquence et indice
temporel. Ce problème a été résolu par Coifman [9] : le résultat de l’analyse en paquets d’ondelettes
sera donné sous forme de tableau, constitué des lignes de l’arbre. Ainsi la première ligne représente le
signal de départ (composé de N échantillons) dans le domaine temporel; il n’y a pas encore la notion
ENSIETA, Janvier 2002 96
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
5. Analyse multirésolution et paquet d'ondelettes
de fréquence. La deuxième ligne se découpe en deux grands blocs ou cellules. Le premier bloc de
coefficients résulte du filtrage passe-bas (h[n]) du signal initial et contient donc une approximation de
celui-ci. Le deuxième, provient du filtrage passe-haut (g[n]) et représente les détails. Dans chaque
bloc de cette ligne, on retrouve N/2 coefficients, correspondant à N/2 positions différentes de l’atome
temps-échelle. Chaque cellule qui engendre par division deux autres cellules sur le niveau
immédiatement inférieur s’appelle cellule père, tandis que les cellules engendrées s’appellent
cellules fils. Le principe de lecture est le même pour les lignes suivantes. Le numéro de ligne indique
l’échelle, tandis que le numéro de colonne donne à la fois une information de position et de
fréquence.
En effet, chaque paquet d’ondelettes est porteur d’une triple information {f, s, p} fréquence,
échelle (scale), position, là où l’ondelettes ne comptait que deux paramètres, un paramètre d’échelle
et un paramètre de position. Pour l’ondelette, à une échelle donnée correspondait une gamme de
fréquences, il n’y avait pas d’ambiguïté. Ainsi, le coefficient en paquet d’ondelettes d’une fonction x,
se trouvant sur la ligne ls, dans le bloc bf, à la position p, correspond à la projection de x sur la
fonction d’ondelette {f,s,p}. Si ce coefficient est important, on peut en déduire que x contient une
quantité d’énergie conséquente, au voisinage de la fréquence f, de la position p à l’échelle s.
Pour choisir la meilleure base, c’est-à-dire la plus adaptée à l’extraction de l’information utile,
il faut définir une fonction de mesure de l’information qui porte le nom de fonction de coût. Chacun
peut définir sa fonction de coût, mais il faut s’assurer que la fonction soit additive.
Définition Une fonction M:l2 (Z) → R est appelée fonction de coût additive si:
1) M(0)=0;
2) M ( xi ) = ∑ i M ( x i )
1. Nombre au dessus d’un seuil. Pour un seuil arbitraire ε fixé, on compte les éléments en valeur
absolue supérieures à ε. Cela donne le nombre de coefficients nécessaires à la transmission du signal
pour une précision ε.
2. Entropie. On définit l’entropie au sens de Shannon-Weaver d’une séquence x={x j} par
2
xj
η( x ) = − ∑ j p j log p j , où p j = 2
et on impose plogp=0 si p=0. Il ne s’agit pas d’une fonction de
x
λ ( x) = − ∑ j x j
2 2
coût additive. Par contre, la fonction log x j l’est. Par la relation
η ( x ) = x λ ( x) + log x , minimiser la précédente minimisera cette dernière.
2 2
Soit M une fonction de coût additive et soit x un vecteur d’espace V. Soit une base de la
librairie (une base correspondant à un nœud de la décomposition par paquets d’ondelettes), et soit Bx
une séquence de coefficients de x dans la base V.
Définition La meilleure base pour x∈V relative à M est B telle que M(Bx) soit minimale.
nœud nœud
fil fil
En fait, cette structure, quoique très facilement implémentable récursivement, n’est pas la plus
adaptée. On propose la structure présentée sur la figure 5.17 :
Nœud j du niveau i :
tab[ i ][ j ]
- mark : Booléen
N - la dimension du signal
L - le nombre total de niveaux
Niveau j, Nœud i
Niveaux de décomposition
← Niveau retenu:
2
Il s’agit de la méthode la plus communément employée car elle procure l’entropie la plus
faible des trois méthodes.
On part de l’avant dernier niveau de l’arbre (le niveau L-1) et on remonte vers la racine
(niveau 0). On teste:
$ père ≤ cout
si cout $ des fils , ⇒ père est conservé : cout
$ = cout
$ père
sinon , ⇒ seuls les fils sont conservés, cout$ = cout
$ des fils (5.134)
A la fin, on est assuré d’avoir pour cette décomposition (avec les filtres utilisés), les bases qui
vont procurer le coût d’information le plus bas (coût fonction de la fonction de coût employée, bien
sûr). Pour un signal composé de 8 échantillons, le choix de la meilleure base est présenté sur la figure
suivante:
Bases retenues
Notons que cette méthode est la plus générale et s’exécute quelle que soit la dimension du
signal (1D, 2D,...) : chaque nœud sera décomposé en sous-arbre et on effectue la recherche des bases
contribuant au coût global minimal et ce quel que soit le nombre de nœuds de l’arbre. Elle crée un
pavage non régulier en fréquence du plan temps-fréquence.
L’intérêt pour la décomposition en paquets d’ondelettes est que celle-ci permet une analyse
plus détaillée des composantes hautes-fréquences des signaux, mais également de pouvoir choisir la
base de décomposition la mieux adaptée au traitement recherché. On peut en effet remarquer que
l’information est redondante, car le signal a été projeté sur une librairie d’ondes modulées, de laquelle
on peut extraire un grand nombre de bases (figure 5.22)
Exemples de bases possibles de reconstruction
temps (dans chaque cellule) temps (dans chaque cellule)
x0 x1 x2 x3 x4 x5 x6 x7 0 x0 x1 x2 x3 x4 x5 x6 x7
a0 a1 a2 a3 d0 d1 d2 d3 1 a0 a1 a2 a3 d0 d1 d2 d3
échelle
1
aa0 aa1 da0 da ad0 ad1 dd 0 dd 1 2 aa0 aa1 da0 da1 ad0 ad1 dd 0 dd 1
aaa daa ada dda aad dad add ddd 3 aaa daa ada dda aad dad add ddd
Pour choisir une base qui sera optimale pour une certaine application, on utilise une des
méthodes présentée antérieurement. Après le choix de la meilleure base, on peut envisager la
procédure de reconstruction (ou de synthèse).
L’algorithme d’analyse, qui a été présenté dans le sous-chapitre 5.4.2 est réversible et conduit
à un algorithme dual de synthèse, dans lequel une approximation à une résolution donnée se déduit de
l’approximation et du détail à la résolution immédiatement inférieure. Pour la synthèse on peut
utiliser la relation suivante:
n =∞ n =∞
a f [ j , k + 1] = ∑h n − 2 m a f [ m, k ] + ∑g n −2 m d f [ m, k ] (5.135)
n =−∞ n =−∞
A l’inverse de l’algorithme d’analyse qui opérait par filtrages suivis de décimations,
l’algorithme de synthèse opère par interpolations suivi de filtrages. L’algorithme de synthèse
(supposons que l’on a choisi la meilleure base, celle-ci étant comme celle présentée sur la figure 5.22,
partie droite) est présenté dans la figure suivante:
Signal reconstruit
S S
+
H’(z) G’(z)
S S
↓2 ↓2
↑2 ↑2
Les cellules de synthèse opèrent tout d’abord une interpolation sur les entrées (en fait il s’agit
d’un insertion d’un zéro entre deux échantillons consécutifs), puis un filtrage par H’ et G’, filtres
transposés de H et G (c’est-à-dire tels que h’n =h-n et g’n =g-n).
Pour plus de détails théoriques, les lecteurs peuvent consulter [1]. Dans l'annexe A1 on décrit
les aspect d'implémentation de la transformation en paquet ondelette directe et inverse.
Méthodes de seuillage
Les méthodes de seuillage que nous avons utilisées sont abondamment décrites et utilisées par
Donoho et Johnstone dans [11] et [12].
§ Hard Tresh
§ Soft Tresh
§ SUREThresh
Nous voulons ici minimiser l’estimateur non biaisé du risque développé par Stein (Stein’s
Unbiased Estimate of Risk : SURE), pour déterminer le seuil, comme il est décrit dans [11] :
Donc, avec SUREThresh, le seuil est choisi automatiquement. Ce choix automatique du seuil
est l’un des buts que nous poursuivons. Ensuite, nous seuillons soit par SoftTresh, soit par HardTresh.
Les deux premières méthodes sont des propriétés bien spécifiques :
- HARDTRESH : en terme d’erreur quadratique est meilleure, mais la méthode crée des
oscillations parasites.
- SOFTTRESH : le signal est au moins aussi lisse que le signal pur et la méthode ne crée pas
d’oscillations parasites.
Il existe d’autres méthodes envisageables pour assurer le débruitage. Par exemple, on peut
utiliser le seuillage énergétique. On décide, dans ce cas, de conserver un pourcentage α de l’énergie
du signal étudié. Les coefficients sont alors triés par ordre décroisant; les plus grands sont ensuite
retenus un par un, jusqu’à ce que l’énergie des coefficients sélectionnés soit égale à αE. Les autres
coefficients sont fixés à zéro.
Le plus grand avantage de la décomposition en paquets d’ondelettes est la possibilité de la
sélection de la meilleure base utilisant des bases orthogonales à partir d’une certaine méthode. Les
coefficients dans cette base seront seuillés de telle manière à maintenir l’information essentielle et
éliminer l’influence du bruit. La méthode la plus utilisée pour choisir la meilleure base est la
minimisation du coût de l’entropie Shanon-Weaver, parce que la majorité de l’énergie des
coefficients de la meilleure base est concentrée sur un nombre minimal de coefficients représentatifs.
L’inconvénient de ce critère est qu’il privilégie les coefficients «basses fréquences» qui sont les plus
énergétiques.
Pour illustrer le principe de débruitage en utilisant la décomposition en paquets d'ondelette, on
considère l'exemple d'un chirp bruité, pour un RSB=4 dB. Sur la figure 5.24.a. on présente les
coefficients issus par décomposition et la meilleure base, au sens d'entropie de Shannon.
Arbre de décomposition
Decomposition tree
0
-0.5
-1
Signal original (bleu) et signal bruité (rouge)
Original signal (blue);Noisy signal (red)
2
1.5
-1.5
Entropy
-2 0.5
-2.5 -0.5
-1
-3 0 50 100 150 200 250 300
1.5
Le tableau des
The coefficients of thecoefficients
best basis 0.5
1 0
-0.5
0
-1
0 50 100 150 200 250 300
-1
1.5
Signal debruité par SoftThresholding
SoftThresholding denoised signal
-2
Level
-3 0.5
-4 0
-0.5
-5
-1
0 50 100 150 200 250 300
-6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
a. b.
A A
A A
Comme on peut observer sur cette figure, chaque sous-espace W jp ,q est décomposé en quatre
sous-espaces orthogonaux, selon :
W jp ,q = W j2+p1, 2q ⊕ W j2+p1+1,2q ⊕ W j2+p1,2 q+1 ⊕ W j2+p1+1, 2q +1 (5.139)
Ces sous-espaces sont localisés en quatre nœuds d'un arbre quaternaire, comme il est illustré
sur la figure suivante.
W jp ,q
L'algorithme de décomposition et du choix de la meilleure base est similaire au celui des cas
1D. En fait, on applique l'algorithme de décomposition 1D sur les lignes puis sur les colonnes. A la
reconstruction, on effectue les opérations inverses [13].
L'implémentation pratique de la décomposition en paquets d'ondelettes 2D implique
l'utilisation d'un banc de filtres séparables qui est, en fait, une extension 2D du banc de filtres utilisés
dans le cas 1D. De point de vue physique, un tel banc de filtres décompose l'image de départ en
plusieurs imagettes.
Pour le choix de la base optimale, on peut utiliser la version 2D de l'algorithme décrit en
section 5.4.4., en utilisant toujours l'entropie de Shannon comme fonction de coût.
→ Si M(W jp,q ) ≤ M(W j2+p,1 2q ) + M(W j2+p1+1,2 q ) + M(W j2+p,1 2q +1 ) + M(W j2+p1+1,2q +1 ) ⇒
W L0+,11
W L1,+01 W L1,+11
W L0+,01 W L1,+11 W L0+,11
WL1,+01
W L0+,01
5.5.1. Préliminaires
Soit la séquence {hn } qui représente les coefficients du filtre qui respectent les équations
suivantes:
Σhn-2k hn-2l=δ k,l. (5.141)
∑ hn = 2 (5.142)
n
Soit {φ n (x)} un ensemble d’ondelettes, qui est généré par l’équation (5.145)
φ 2n = 2 ∑ hk φ n ( 2 x − k )
k
(5.143)
φ 2n+1 = 2 ∑ g k φ n (2 x − k )
g k = ( −1) h1− k où φ 0 ( x ) ≡ ϕ ( x ) est une fonction d’échelle qui satisfait
k
ϕ ( x − p), ϕ ( x − q ) = δ p, q p, q ∈Ζ (5.144)
Il a été observé [14] que la projection d’une fonction f(x) sur une base classique
{2 φ0 (2 j x − k ) : k ∈Ζ} reste invariante pour un décalage inférieur à 2-jm (m∈Z). Néanmoins, si on
j/ 2
Blj, n, m = {2 ( l+ j) /2 φ n [ 2 l ( 2 j x − m ) − k ] : k ∈ Z } (5.145)
{
U l j,n ,m = clos L2 ( ℜ ) Bl j,n ,m } (5.146)
Définition La librairie de paquets d’ondelettes invariante en temps est une collection de toutes les
bases orthonormales de Vj qui sont sous-ensemble de
{B j
l , n ,m : l ∈ Z − , n ∈ Z+ ,0 ≤ m < 2 − l } (5.148)
Cette librairie peut être mise sous une configuration d’arbre qui facilite les algorithmes rapides
de choix de la meilleure base. Une telle configuration est présentée sur la figure 5.29 :
(0,0,0)
(-1,0,m-1,0) (-1,1,m-1,1)
(-2,0,m-3,0
(-3,0,m -2,0) )(-3,1,m-3,1) (-3,2,m-3,2) (-3,3,m-3,3) (-3,4,m-3,4) (-3,5,m-3,5) (-3,6,m-3,6) (-3,7,m-3,7)
Figure 5.29. L’ensemble étendu de paquets d’ondelettes organisé sous une structure d’arbre
Chaque nœud d’arbre est indexé par le triplet (l,n,m) et représente le sous-espace Ujl,n,m . Ici l
représente le niveau de décomposition, n-la position dans le niveau. Comme dans les arbres binaires
utilisés pour la décomposition en paquets d’ondelettes, chaque noeud contient un pointeur vers un
vecteur défini sur un intervalle dyadique donné par Il,n=[2ln,2l(n+1)].
Le paramètre additionnel m est un nouveau degré de liberté introduit pour ajuster la
localisation temporelle des fonctions de base. On l’appellera indice d’invariance. La proposition
suivante donne les conditions nécessaires pour assurer l’orthonormalité d’un certain sous-ensemble.
La condition (ii) est équivalente à rechercher l’indice d’invariance relative entre le nœud père
et les nœuds enfants soit zéro ou un. En effet, chaque nœud père (l,n,m) génère des nœuds enfants (l-
1,2n,m’) et (l-1,2n+1,m’’) où, tenant compte de la condition (ii), l’indice d’invariance n’aura que deux
valeurs: m’=m’’=0 ou m’=m’’=2-l
L’arbre de décomposition associé à un certain signal décrit la représentation du signal dans
une base orthonormale choisie dans la librairie invariante en temps. La collection des indices E
représente la collection de tous les nœuds terminaux. Pour vérifier que la condition (ii) est respectée
on considère l’exemple présenté sur la figure suivante:
On peut voir que les signaux ont la même meilleure base de décomposition, mais on a obtenu
l’invariance grâce aux indices d’invariance. Avec des lignes en trait épais on a représenté les
branches correspondantes aux décompositions des nœuds qui ont mc=m+2-l, c’est-à-dire qu’on a
choisi, dans l’étape de sous-échantillonage, les termes pairs de la décomposition.
On considère les nœuds (-3,0,4) et (-5,3,20). A ces nœuds correspondent deux intervalles
dyadiques: I-3,0=[0,1/8) et I-5,1=[3/32,1/8). Ces deux intervalles sont contenus dans l’intervalle I-
2,0 =[0,1/4) qui correspond au nœud (-2,0,0). Donc, l=-2. La vérification de la relation (ii) est:
m1mod(2-l)=m2 mod(2-l)→4mod(4)=20mod(4)=0
La configuration de l’arbre de la librairie étendue facilite une méthode efficace pour choisir la
meilleure base.
Soit f∈Vj=Uj0,0,0 et soit M une fonction de coût additive. Soit B une librairie de paquets
d’ondelettes invariante en temps.
Définition La meilleure base pour f dans B par rapport à M est B∈ B pour laquelle M(Bf) est
minimale.
Soit Ajl,n,m la meilleure base pour le sous-espace Ujl,n,m . Par conséquent, Aj0,0,0 représente la
meilleure base pour f∈Vj par rapport à M.
( ) ( )
1 1
mc =
m, si ∑
i =0
M Al , 2n+ i, m x ≤ ∑
i= 0
M Al, 2n +i ,m+ 2− l x
(5.151)
m + 2 − l , sin on
Proposition 5.5. Soit E1 et E2 deux collections d’ indices qui respectent la proposition 5.4, et soit B1
et B2 deux bases orthonormales. Alors B1 et B2 sont identiques à un décalage près si uniquement il
existe une constante q∈ Z telle que pour tous les (l,n,m)∈E1 il existe (l,n,,m’)∈E2 où
m’=(m+q)mod(2-l).
Preuve:
On dit que les bases de Vj sont identiques à un décalage près si seulement s’ il existe q∈Z tel que pour chaque
élément du B1 on a un élément identique dans B2 qui est translaté de q2 -j
En fait, si
2 ( l + j )/2 φ n [2 l ( 2 j x − m) − k ] ∈ B1 (5.152)
alors
2 ( l + j )/2 φn [2 l ( 2 j ( x − q2 − j ) − m) − k ] ∈ B2 (5.153)
Si E représente la collection des indices obtenue par la proposition 5.4. et B est la base correspondante, alors
(l,n,m) ∈ E est équivalent à Bj l,n,m ⊂B. Aussi, on peut observer que
Définition Les arbres binaires sont invariants pour un décalage temporel s’ils correspondent aux
bases invariantes pour le même décalage.
Proposition 5.6. La meilleure base obtenue par algorithme décrit dans ce sous-chapitre est
invariante en temps.
Les organigrammes pour l'implementation de ces approches sont donnés dans l'annexe 1.
CONCLUSION
D’un point de vue pratique, l’idée de base pour obtenir l’invariance est d’adapter le
sous-échantillonage quand on étend un nœud.
La plus petite entropie est obtenue pour la famille ‘’Symmlet’’, à l’ordre 6. Cette famille sera
donc la mieux adaptée à notre signal.
La procédure pour implémenter la DPOIT 2D reste essentiellement la même que dans le cas
1D. Dans ce cas, l'indice de décalage n'est plus une seule valeur mais un vecteur m=(m x,my).Soit mp et
me les indices de décalage de père et, respectivement, des enfants. Le décalage relatif peut prendre
quatre valeurs :
me-m p={(0,0},(2-l,0),(0,2-l),(2-l,2-l)} (5.155)
La valeur la mieux adaptée sera toujours celle qui minimise l'information de coût. La preuve
peut se faire en extrapolant la preuve du cas 1D.
Sur la figure suivante on donne l'exemple de la DPOIT 2D, comparativement à la
décomposition classique.
Références
Exercises et problèmes
k ∈ Z − {0}et l<p.
∞
b) Dériver que si q<p alors ∑ n qφ (n ) = ∫−∞∞ t qφ (t )dt .
n= −∞
∞
3. (Analyse Multirésolution) Montrer que ∑ φ (t − n) = 1 si φ est une fonction échelle orthogonale.
n= −∞
4. (Analyse Multirésolution)
a) On considère le produit infini :
k
bi
pk = ∑ a ; b <1
i =0
1
Montrer que p = lim p k = −
a b
1 .
i→∞
1 + z −1
b) A partir de l'expression du filtre de Haar passe-bas H (z ) = et sa version normalisée
2
M 0 (ω ) =
H e jω ( ) ∞ ω − j sin (ω / 2 )
montrer que Φ (ω ) = ∏ M 0 k = e 2 .
ω
2 k =1 2 ω/2
c) Montrer que l'ondelette de Haar est donnée par :
ω
−j sin 2 (ω / 4)
Ψ (ω ) = jωe 2
ω/4
5. (Analyse Multirésolution) On considère le signal
1, t ∈ [0,1]
f (t ) =
1, t ∉ [0,1]
a) Trouver les coefficients de la décomposition de f(t) sur l'ensemble des ondelettes de Haar -
{ψ m,n }.
2
b) Vérifier que ∑ ∑ f ,ψ m,n = 1 (l'identité de Parseval).
m n
( )
c) On suppose f a (t ) = f t − 2 −i ; i ∈ Z + . Donner les domaines d'échelle pour lesquels les
coefficients de la décomposition de ce signal sur l'ensemble des ondelettes de Haar sont non-nuls.
1
d) Le même exercice pour f b (t ) = f t − .
2
6. (Les moments nuls) Montrer qu'une fonction ψ avec p moments nuls est orthogonale sur tous les
polynômes d'ordre p.
ψˆ ' (ω ) = 1
( )
gˆ 2 −1ω ∞ hˆ1 2 − p ω
∏
( )
2 p =2 2
10. (Les filtres miroir quadratique) On définit un banc de filtre avec quatre réponses impulsionelles
~
h, g, h et g~ qui décompose un signal a0 [n]
a1 [n ] = a 0 ∗ h[2n ] d1 [n] = a0 ∗ g [2 n]
En utilisant la relation (5.70), la reconstruction est donnée par :
(
a 0 [ n] = a(1∗ h [ n] + d 1 [ n] ∗ ~
~
~ g [ n]
a) Montrer que a~[n ] = a 0 [n − l ] si
gˆ (ω ) = hˆ (ω + π ), h (ω ) = hˆ(ω ), ~ gˆ (ω ) = − h (ω + π )
~ˆ ~ˆ
et h satisfait la condition quadratique
hˆ 2 (ω ) − hˆ 2 (ω + π ) = 2e − jl ω
b) Montrer que l est nécessairement pair.
6
REPRESENTATIONS TEMPS-FREQUENCE BILINEAIRES
On appelle P(t,ϖ) le spectre de puissance dépendant de temps. La question qui persiste est de
déterminer la fonction d'autocorrélation dépendante du temps R(t, τ).
Apparemment, le choix de R(t,τ) n'est pas arbitraire. Par exemple, puisque P(t,ϖ) décrit le
spectre de puissance dépendant du temps, en sommant tous les spectres P(t 0 ,ϖ) instantanés on doit
retrouver le spectre de puissance |S(ϖ)|2 , par :
∫ P(t , ω )dω = S (ω )
2
(6.4)
∫ P(t , ω )dω = s (t )
1 2
(6.5)
2π
ce qui traduit la condition de conservation de la marginale en temps. Si P(t,ϖ) représente la
distribution d'énergie du signal dans le domaine temps-fréquence, alors nous lui voulons des valeurs
réelles :
P(t,ϖ) = P* (t,ϖ) (6.6)
D'une manière équivalente, la DWV peut également être calculée à partir du domaine
fréquentiel. Soit
τ * τ
s1 (τ ) = s t + et g 1 (τ ) = g t −
2 2
dont les transformées de Fourier sont données par :
τ τ
s1 (τ ) ↔ S1 (ω ) = 2S (2? )e j 2? t et g1 (τ ) ↔ G1 (ω ) = 2G * (2? )e − j 2 ? t
Dans la section précédente, nous avons présenté les concepts de spectre dépendant de temps et
de la distribution de Wigner-Ville. Comparée à la TFCT, la DWV présente une meilleure résolution,
et, également ne souffre pas des effets de la fenêtre (voir le chapitre 4). Dans ce qui suit, nous
étudierons les propriétés de la DWV.
Si la DWV d'un signal s(t) est DWVs (t,ω), alors la DWV de sa version décalée en temps
s0 (t)=s(t-t 0 ) est la DWV décalée temporellement de s(t), exprimée selon :
Si la DWV d'un signal s(t) est DWVs (t,ω), alors la DWV de sa version modulé en fréquence
s0 (t)=s(t)exp{jω0 t} est la DWV de s(t) décalée en fréquence, exprimée selon :
Sur la figure suivante, on met en évidence ces deux propriétés, à partir d'une modulation
linéaire de fréquence (signal chirp).
F
DWV T DWV DWV
Sur cette figure on observe que, dans le cas de la DWV, la structure temps-fréquence d'un
signal est conservée par décalage en temps ou en fréquence. Cela représente une propriété importante
de la DWV, intensivement exploitée dans des applications comme la détection ou la classification des
signaux.
Par définition, la marginale en temps d'une représentation temps-fréquence est obtenue par
l'intégration de celle-ci sur tout l'axe de fréquence :
τ * τ 1
∫ DWV s (t , ω )dω = ∫ s t + s t − ∫ exp{− jωτ }dωdτ =
1
2π 2 2 2π
(6.17)
τ * τ
= ∫ s t + s t − δ (τ )dτ = s (t )
2
2 2
D'une manière similaire la marginale en fréquence peut être obtenue par intégration sur tout le
domaine temporel :
τ * τ
∫ DWV s (t , ω )dt = ∫∫ s t + s t − exp{− jωτ }dtdτ
2 2 (6.18)
Cette propriété assure que l'énergie obtenue par DWVs(t,ω) sera identique à l'énergie du signal
de départ. Elle est induite par les conditions marginales en temps et en fréquence et par la relation de
Parseval
4. Valeurs réelles
La relation 6.12 montre le fait que la DWV d'un signal aura toujours des valeurs réelles.
ω
y (t ) = k x(kt ); k > 0 ⇒ DWV y (t , ω ) = DWV x kt, (6.20)
k
6. Compatibilités par filtrage et par modulation
La propriété de compatibilité par filtrage assure le fait que si le signal y est la convolution
entre x et h (autrement dit, y est la sortie d'un filtre h quand on applique x à l'entrée) alors la DWV de
y est la convolution temporelle entre la DWV de x et la DWV de h :
∞ ∞
y (t ) = ∫ h(t − s )x (s )ds ⇒ DWV y (t , ω ) = ∫ DWV h (t − s, ω )DWV x (s , ω )ds (6.21)
−∞ −∞
D'une manière duale la propriété de compatibilité par modulation s'exprime par : si y est une
modulation de x par une fonction m, la DWV de y est une convolution fréquentielle entre la DWV de
x et la DWV de m :
∞
y (t ) = m(t ) x(t ) ⇒ DWV y (t , ω ) = ∫ DWV m (t , ω − ξ )DWV x (t , ξ )dξ (6.22)
−∞
F 0.8
0.6
0.4
T 0.2
-0.2
-0.4
-0.6
-0.8
-1
Distribution de Wigner-Ville
Représentation fréquentielle du signal
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
50 100 150 200 250
9. La fréquence instantanée
La fréquence instantanée d'un signal x peut être calculée à partir de sa DWV comme le
moment de premier ordre (le centre de gravité) en fréquence :
∞
∫ υDWV x a (t , υ )dυ
f x (t ) = −∞
∞
(6.25)
∫ DWV xa (t ,υ )dυ
−∞
où x a est le signal analytique associé à x. La preuve de cette propriété est donnée en [1, pag. 109].
D'une manière duale, le retard de groupe peut être obtenu comme le moment temporel du
premier ordre de sa DWV, selon :
∞
∫ tDWV xa (t , υ )dt
t x (υ ) = −∞
(6.26)
∞
∫ DWV xa (t ,υ )dt
−∞
Ces deux propriétés sont importantes dans des applications où on cherche à estimer la
fréquence instantanée d'un signal mono-composante.
0.4
Amplitude
(normalisée)
0.35
Fréquence
0.3
0.25
0.2
0.15
0.1
0.05
0
50 100 150 200 250 F T
Temps
Figure 6.3. DWV d'un signal chirp
Comme on a vu dans cette section, la DWV respecte un nombre important de propriétés qui la
rend utile, avec quelques modifications, dans des application comme l'extraction ou l'estimation des
paramètres. Néanmoins, la distribution de Wigner-Ville ne vérifie pas quelques propriétés qui
auraient été souhaitables pour rendre cet outil encore plus performant. La première propriété non
vérifiée par Wigner-Ville est la positivité. En effet, la distribution de Wigner-Ville peut prendre des
valeurs négatives ce qui d'une part ne permet pas de la classer dans la catégorie des densités d'énergie,
et d'autre part rend l'interprétation des résultats assez difficile. D'autre part, la distribution de Wigner-
Ville ne vérifie pas la propriété dite de causalité; c'est-à-dire que l'évaluation de la distribution à un
instant t donné nécessite la connaissance du signal avant et après cet instant. Le passé du signal ne
suffit pas. La mise en œuvre d'une analyse en temps réel n'est donc pas envisageable.
ENSIETA, Janvier 2002 121
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
Une autre propriété de la Distribution de Wigner-Ville, qui peut être vue comme un
inconvénient important est sa bilinéarité. Celle-ci est à l’origine de l’apparition de termes dits
d’interférences qui peuvent dans certains cas nuire à la lisibilité de la représentation temps-fréquence
obtenue. C’est pourquoi, il convient d’étudier ces termes de manière plus précise.
Cette "limite" de la distribution de Wigner-Ville est un prix à payer pour toutes ses autres
bonnes propriétés. En effet, la forme quadratique de celle-ci est à l'origine de la plupart des
caractéristiques intéressantes de la distribution, mais elle est également à l'origine de la non-linéarité
de cette dernière. Considérons pour cela deux signaux x(t) et y(t). La DWV de z(t)=x(t)+y(t ) - le
signal somme des deux signaux précédents a pour expression (en partant de la relation (6.9)) :
τ τ τ τ
DWV z (t , ω ) = ∫ x t + + y t + x * t − + y * t − exp {− j ωτ }dτ ⇒
2 2 2 2
τ τ τ τ
⇒ DWV z (t , ω ) = ∫ x t + x * t − exp {− jωτ }dτ + ∫ y t + y * t − exp {− j ωτ }dτ +
2 2 2 2
τ τ τ τ
+ ∫ x t + y * t − exp {− jωτ }dτ + ∫ x * t + y t − exp {− j ωτ }dτ ⇒
2 2 2 2
⇒ DWV z (t , ω ) = DWV x (t ,ω ) + DWV y (t , ω ) + 2 Re DWV x, y (t , ω ) {
(6.28) }
Le troisième terme de cette expression est non nul et représente le terme dit d'interférence.
Ceux-ci augmentent rapidement puisque leur nombre (si on pose N le nombre de signaux
élémentaires constituant un signal z(t)) est donné par le produit N(N-1)/2.
Ces termes nuisent à la lisibilité des représentations qui peuvent être faites à partir de la
distribution, mais ils peuvent dans certains cas être utiles car ils contiennent une information sur la
phase du signal. Il peut donc être intéressant de bien comprendre les mécanismes qui sont à l’origine
de l’apparition des termes interférentiels de manière d’une part à les différencier des termes non-
interférentiels, et d’autre part pour en extraire le cas échéant une information utile.
Les études qui ont été faites sur les interférences ont montré que les termes interférentiels
avaient une structure oscillante. Il est donc envisageable de limiter l’importance de ces termes en
effectuant un filtrage qui tienne compte de cette particularité. La mise en œuvre de cette idée a abouti
à la définition des versions lissées de la distribution de Wigner-Ville qui fait l’objet de la section
ultérieure. Il est montré, par quelques exemples, le mécanisme et la géométrie des termes
d'interférences.
On suppose un signal composé de deux sinusoïdes complexes : s(t ) = exp ( j ω1t ) + exp ( j ω 2 t ) .
Le spectre de ce signal est 2πδ (ω1 ) + 2πδ (ω 2 ) tandis que la DWV est donnée par la relation
suivante :
DWV s (t , ω ) = 2π ∑ δ (ω − ω i ) + 4πδ ω − ω µ cos (ω d t )
2
( ) (6.29)
i =1
où ωµ et ωd est le centre géométrique et la distance entre les deux sinusoïdes, dans le domaine
fréquentiel, comme il est illustré sur la figure suivante :
S (ω )
2
300
ω1 + ω 2
ωµ =
2
200
ω
0
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
ω1 ω2
Figure 6.4. La définition du centre géométrique et la distance entre deux sinusoïdes
ENSIETA, Janvier 2002 122
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
La DWV exprimée par la relation (6.29) est présentée sur la figure suivante.
DWV de deux sinusoïdes
0.45
0.3
0.25
0.2
0.15
0.1
0.05
0
50 100 150 200 250
Temps
Figure 6.5. La DWV de deux sinusoïdes
Sur cette figure, on met en évidence le résultat issu de l'expression (6.29) : on obtient deux
auto-termes aux fréquences ω1 et ω2 mais également des termes d'interférence , placés sur un axe
situé entre les deux composantes propres. Lorsque les auto-termes sont non-oscillants, ceux
d'interférence ont une structure oscillante de pulsation ωd . D'ailleurs, l'amplitude de ces termes est
deux fois plus grande que celle de termes propres.
La géométrie des termes d'interférence issus par la DWV est donnée par la loi suivante : les
termes d'interférence générés par deux atomes temps-fréquence sont concentrés autour du milieu de
la droite qui unit ces points, ayant une structure oscillante à travers d'un axe perpendiculaire à cette
droite. La pulsation est donnée par la différence entre les fréquences correspondantes aux atomes
pris en compte. Cette loi est illustrée à partir de l'exemple suivant : on considère deux atomes
gaussiens et, pour différentes positions de ceux-ci, on obtient plusieurs configurations de termes
d'interférences, mais qui suivent la même loi.
Distribution de Wigner-Ville Distribution de Wigner-Ville
Fréquence (normalisée)
Fréquence (normalisée)
Temps Temps
Fréquence (normalisée)
Temps Temps
Figure 6.6. La dépendance de la configuration des termes d'interférence de la positions des termes propres
Il parait évident que la distribution de Wigner-Ville dans sa version continue n'est pas adaptée à
un traitement dans des conditions réelles. D'une part, le signal étudié est toujours connu sur une durée
finie. D'autre part, pour permettre une implémentation sur les ordinateurs actuels, il est nécessaire de
définir des versions de cette distribution à temps discret (mise en œuvre de la transformation sur un
signal échantillonné), à fréquence discrète ou même à temps et à fréquence discrets.
Il convient également de garder à l’esprit que la version discrétisée de la transformation de
Wigner-Ville ne sera dans tous les cas qu’une expression approchée de la version à temps continu. A
ce titre, certaines des propriétés de base de la transformation seront altérées voire perdues et de
nouvelles difficultés apparaissent comme le phénomène de repliement.
En identifiant terme à terme, on obtient alors la relation qui existe entre la distribution de
Wigner-Ville à temps discret et la distribution à temps continu, soit:
^ 1 n. T l
W f ( n, u) = ∑ ( −1) n.l .W f ( ,u −
^
) (6.35)
2. T n ,l 2 2. T
Cette formule met en évidence deux conséquences importantes de la discrétisation.
→ La distribution de Wigner-Ville est échantillonnée à une fréquence double de celle du signal;
ENSIETA, Janvier 2002 124
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
Alors en suivant une démarche identique à celle suivie pour définir la distribution à temps
discret, on peut écrire que :
1 N −1 − i .π . m n. T m
W − (t , u) = . ∑ ∑ f k . f n*− k .exp .(2. k − n ) . δ ( t − ).δ ( u − ) (6.39)
f 2. N . T n, m k = 0 N 2 2. N . T
Si on définit la distribution de Wigner-Ville à temps et à fréquence discrets comme le poids de
la fonction de Dirac bidimensionnelle aux points t=n.T/2 et u=m/2.N.T, on obtient :
−i . π . m
N −1
1
W (n, m) = . ∑ f k . f n− k .exp .( 2. k − n)
*
(6.40)
2. N . T k = 0 N
Ceci revient à décomposer l'espace temps-fréquence en atomes temps-fréquence de dimension
T/2×1/2.N.T et de calculer la contribution énergétique du signal dans cet atome.
Partant de cette observation, il est clair qu'il est impossible de s'affranchir du phénomène de
repliement dans le cas d'une double discrétisation. En effet, pour obtenir une version de distribution
discrète ne temps et en fréquence, il faudrait que l'on ait d'une part, une distribution nulle à l'extérieur
d'un intervalle de fréquence [0, 1/2.T] et d'autre part, cette même distribution nulle en dehors d'un
intervalle de temps [0, N.T/2] où T représente la période d'échantillonnage temporel. Or ces deux
conditions ne peuvent être vérifiées simultanément puisqu'un signal n'est jamais à la fois de durée et
de spectre fini.
Dans la pratique, il est néanmoins possible de se rapprocher fortement de cette situation mais
il conviendra de toujours avoir à l'esprit les conséquences que peuvent avoir l'aliasing sur la
représentation du signal à partir d'une distribution de Wigner-Ville à temps et à fréquence discrète.
A ce stade, il convient de mettre l’accent sur une difficulté qui intervient dans le passage de la
version continue à la version discrète. En effet, le passage au domaine discret entraîne l’apparition de
phénomènes qui n’existent pas à temps continu tel que le repliement ou aliasing. La difficulté qui
intervient dans le cas des représentations temps-fréquence est que la transformation est discrétisée à
la fois en temps et en fréquence. De ce fait, il faut tenir compte du phénomène de repliement à la fois
dans le domaine temporel et dans le domaine fréquentiel. En raison de la dualité du temps et de la
fréquence, il sera toujours impossible d’éviter totalement tout phénomène de repliement mais il
convient toutefois de prendre des précautions afin d’en limiter les effets au maximum.
Pour cela, il faudra donc prendre les mesures suivantes: d’une part, le signal x(t) devra au
minimum être échantillonné à la fréquence de Shannon (ou de Nyquist) si l’on effectue le
passage par le signal analytique et à 2 fois la fréquence de Shannon si le passage au signal
analytique n’est pas effectué. Ces mesures doivent permettre d’éviter les problèmes de
repliement dans le domaine fréquentiel.
Afin d’éviter les problèmes de repliement temporel dont on oublie trop souvent l’existence, il
convient d’augmenter artificiellement le nombre de points sur lequel on effectue l’analyse afin
d’augmenter le pas d’échantillonnage dans le domaine fréquentiel. Pour cela, on fait appel à la
méthode du zéro-padding. Pour que celle-ci soit efficace, on multiplie habituellement par deux la
longueur du signal par cette méthode.
Si le calcul est effectué dans de bonnes conditions et en respectant les observations concernant
le repliement, seuls les termes correspondant à des valeurs négatives ou nulles de k sont intéressantes
à visualiser.
En effet, à une valeur de k correspond un échantillon fréquentiel sachant que le pas
d’échantillonnage est donné par :
∆ν=fe/2* size(x) (6.42)
Le signal, dans le cas limite possède une largeur de bande telle que fe=2*B où B représente la
fréquence la plus élevée du signal. En utilisant le signal analytique, la largeur de bande du signal est
divisé par deux du fait de l’absence de composante dans le domaine des fréquences négatives. Le
passage à la transformée de Wigner-Ville est responsable d’une périodisation dans le domaine
fréquentiel de période la fréquence d’échantillonnage divisée par 2. Il s’ensuit que pour un signal
analytique de fréquence maximale fe/2, le ‘spectre’ utile du signal se limite à la bande de fréquence
[0,fe/2]. La moitié des termes du résultat suffisent donc à caractériser le signal.
On utilise une fenêtre en τ (p(τ)), agissant sur la fonction q x ( t , τ ) . (La fonction q est définie
comme étant le noyau sur lequel est appliquée une transformation de Fourier; en d'autres termes :
τ * τ
q x ( t , τ ) = x t + . x t − ) La distribution ainsi obtenue a été appelée pseudo-distribution de
2 2
Wigner-Ville et sa définition est:
+∞ +∞
PWx ( t , ν ) = ∫
−∞
p (τ ). x (t + τ / 2). x * ( t − τ / 2). e −2.i.π .ν .τ . dτ = ∫
−∞
P(ν − ξ).Wx ( t , ξ ). dξ (6.43)
La distribution ainsi obtenue, tout en gardant l'esprit de la distribution de Wigner-Ville est une
analyse par l'intermédiaire d'une fenêtre glissante à court terme, ce qui en fait une proche voisine du
spectrogramme. Il semble donc intéressant de comparer ces deux outils du plan temps-fréquence afin
de mieux mettre en évidence les apports de la transformation de Wigner-Ville.
dont la pente détermine la rapidité de modulation. La meilleure situation d’analyse dans le cas du
spectrogramme est d’avoir un signal quasi stationnaire à l’intérieur de la fenêtre d’analyse. On se
trouve alors confronté au compromis du choix de la largeur de la fenêtre permettant de concilier à la
fois quasi-stationnarité à l’intérieur de la fenêtre et temps d’analyse suffisamment long pour ne pas
trop dégrader la résolution fréquentielle. Dans le cas d’un chirp linéaire, la résolution atteignable à
l’aide du spectrogramme sera d’autant plus faible que la pente de modulation du signal sera élevée :
en effet, la fenêtre dans laquelle on peut faire l’approximation de quasi-stationnarité est d’autant plus
étroite que la rapidité de modulation est importante. Ces aspects sont illustrés sur la figure suivante.
DWV Spectrogramme
0.5
Fréquence (normalisée)
Fréquence (normalisée)
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
où x t (υ ) = x (υ )h(υ − t ) est le signal x pondéré par h autour de t. Ceci permet de travailler à court
terme en faisant porter l'opération de transformation de Fourier non plus sur une tranche de signal
mais sur le produit de celle-ci par son image miroir. Ou, ce qui revient au même, à calculer une TFCT
dans laquelle la fenêtre de pondération serait continuellement choisie comme l'image en miroir de la
tranche analysée. Cette interprétation est à la base de la propriété de représentation parfaite d'une
modulation linéaire en fréquence. L'extension de cette propriété à la PWVL fournit le résultat central
selon lequel une telle analyse peut être considérée comme une TFCT modifiée dans laquelle
l'hypothèse, propre aux spectrogrammes, de stationnarité ou de constance dans la durée d'observation
peut être remplacée par l'hypothèse plus amiable d'approximation linéaire sur cette même durée. La
possibilité ainsi offerte d'élargissement de la durée d'analyse permet d'atteindre une meilleure
résolution fréquentielle, la "meilleure" fenêtre étant maintenant la plus grande pour laquelle
l'approximation reste valide. De plus, et toujours sous cette approximation, le choix d'une fenêtre
ayant la forme d'une fonction d'autocorrelation suffira à assurer la positivité de la représentation
associée si le signal considéré est monocomposante.
Cette stationnarisation locale se fait cependant au prix d'un traitement non linéaire dont l'effet
secondaire est de créer des termes d'interférence entre les composantes du plan temps-fréquence. Si
l'on revient alors à la forme générale, la pondération g introduit un nouveau lissage suivant l'axe de
temps. Le rôle essentiel de celui-ci est précisément de réduire les termes d'interaction entre
composantes situées autour de fréquences différentes. Le résultat principal est que l'amplitude d'un
terme interférentiel provenant de deux composantes distantes d'un intervalle fréquentiel δυ sera rendu
ENSIETA, Janvier 2002 130
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
négligeable devant l'amplitude associée à chacune des composantes si le lissage temporel se fait sur
une durée au moins égale à 1/δυ. Ceci est illustré sur la figure suivante, où on présente la PWVL
d'un signal composé de deux sinusoïdes pour différentes tailles de la fenêtre G entre elles.
DWV PWVL : taille G - 65
Fréquence (normalisée)
Fréquence (normalisée)
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
Fréquence (normalisée)
0.4 0.4
Fréquence (normalisée)
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
Figure 6.8. Influence de la fenêtre G sur le niveau des termes d'interférence
A partir de cette figure on observe que, pour obtenir une bonne résolution fréquentielle
simultanément avec la réduction du niveau de termes d'interférence, il faut choisir une taille
fréquentielle petite (ceci se traduit par une bonne sélectivité fréquentielle).
D'une manière similaire on peut étudier l'influence de la taille de H en prenant comme
exemple deux atomes gaussiens, situés à la même fréquence.
DWV PWVL : taille H - 73
Fréquence (normalisée)
Fréquence (normalisée)
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
Figure 6.9. Influence de la fenêtre H sur le niveau des termes d'interférence
ENSIETA, Janvier 2002 131
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
En pratique, on choisit les tailles des fenêtres H et G telles que, pour un instant donné, dans la
fenêtre on a une seule composante temporelle et, respectivement, fréquentielle. Ainsi, en généralisant
les résultats illustrés sur 6.8 et 6.9, on peut dire que la PWVL permet d'éliminer tous les termes
d'interférence, dans le cas des signaux dont les support fréquentiel ou temporel est superposés. Dans
le cas où on a des composantes dont le support ne se superpose pas il faudra faire un compromis entre
la résolution souhaitée et le niveau des termes d'interférence. Cette situation est illustrée sur la figure
suivante on considère comme signal de test la somme des quatre atomes gaussiens.
DWV PWVL : taille H - 19; taille G -91
Fréquence (normalisée)
Fréquence (normalisée)
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
PWVL : taille H - 9; taille G -91 PWVL : taille H - 9; taille G -51
Fréquence (normalisée)
Fréquence (normalisée)
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
20 40 60 80 100 120 20 40 60 80 100 120
Temps Temps
Comme on observe sur cette figure il est possible d'éliminer tous les termes d'interférence,
mais la résolution temps-fréquence sera affectée en conséquence. Autrement dit, la PWVL ne
respecte pas la propriété de conservation des supports, mais, dans les applications pratiques, grâce à
ces paramètres de contrôle, on peut améliorer la lisibilité de l'image temps-fréquence.
+∞
+∞ −4⋅ j⋅π ⋅ k / 2 fe
PWVL [n, k ] = ∑ h[k ] ∑ g[m − n] ⋅ x[m + k ] ⋅ x [ m − k ] ⋅ e
∗
2
× (6.53)
m=−∞
x
k =−∞
Comme dans le cas de la distribution pseudo-Wigner-Ville, il convient d’abord de calculer le
signal analytique (pour l’implémentation voir, le chapitre précédent).
Le calcul du noyau s’effectue alors de la manière suivante:
1. périodisation des échantillons temporels du signal sur 8 fois
la durée du signal de base.
2. pour n variant de 1 à N,
pour k variant de 1 à 2*N,
pour m variant de -M à +M,
noyau(n,k)=g(m)*sign_anal(n+k+m)*conj(sign_anal(n-
k+m)+noyau(n,k);
finpour,
noyau(n,k)=abs(h(k))^2*noyau(n,k);
finpour,
pWV(n,k)=transformée de Fourier du noyau sur k (ou
en core pour chaque valeur de n).
finpour.
Le calcul de la fréquence associée à chaque valeur de k est le même que celui effectué pour la
pseudo-distribution de Wigner-Ville.
Dans la section (6.1), on a vu que la DWV d'un signal peut être définie (6.9.) comme la
transformée de Fourier de la fonction d'autocorrelation instantanée (6.8), en utilisant τ comme
variable d'intégration. D'une manière similaire, la fonction d'ambiguïté symétrique (FA symétrique)
est définie, de point de vue mathématique, comme la transformée de Fourier de la fonction
d'autocorrelation instantanée, mais en utilisant t comme variable d'intégration :
τ * τ
FAs (ϑ , τ ) = ∫ s t + s t − exp{− jϑt }dt (6.54)
2 2
qui a été déterminée par Ville et Moyal. D’un point de vue physique, la fonction d'ambiguïté exprime
la corrélation entre un signal et sa copie décalée en temps et/ou en fréquence. Elle est une des
approches de base utilisées dans le domaine radar et sonar.
L'expression (6.54) est appelée traditionnellement la fonction d'autocorrelation. D'une
manière similaire, la fonction d’intercorrélation sera définie par :
ENSIETA, Janvier 2002 133
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
τ * τ
FAs, g (ϑ , τ ) = ∫ s t + g t − exp {− jϑt }dt (6.55)
2 2
Bien que la DWV ait toujours des valeurs réelles, la FA prend généralement des valeurs
complexes :
FAs ,g (ϑ , τ ) ≠ FA* g , s (ϑ ,τ ) (6.56)
A partir de la relation (6.54) et en utilisant également la transformée de Fourier inverse, on
obtient :
τ * τ
∫ FAs (ϑ , τ ) exp { jϑt }dϑ = s t + s t −
1
(6.57)
2π 2 2
Si on substitue cette relation en (6.9), on obtient :
DWV s (t , ω ) = ∫∫ FAs (ϑ , τ ) exp {− j [ωτ − ϑt ]}dϑdτ
1
(6.58)
2π
qui indique que la distribution de Wigner-Ville est la double transformée de Fourier de la fonction
d'ambiguïté symétrique.
La figure suivante illustre, en détail, les relations entre la distribution de Wigner-Ville et la
fonction d'ambiguïté symétrique.
On a vu, dans les sections précédentes, que dans le plan temps-fréquence, les termes
d’interférence se trouvent situés entre les termes utiles (et d’ici les difficultés d’interprétation). Par la
suite on montrera la propriété la plus importante de la fonction d'ambiguïté, dans le contexte de la
définition de la classe de Cohen : dans le plan d’ambiguïté les termes utiles se trouvent concentrés à
l’origine et les termes d’interférence sont éloignés de l’origine avec une distance proportionnelle à la
fréquence d’oscillation de ces termes dans le plan temps-fréquence.
Fτ Fϑ−1
τ τ Fτ
DWVs (t, ω )
Ft
FAs (ϑ,τ ) st + s* t −
Fϑ−1 2 2 Fω−1
Ft Fω−1
Figure 6.11. Relation entre la distribution de Wigner-Ville et la fonction d'ambiguïté
1
FAx1, x 2 (ϑ , τ ) = exp −
4α
( α 2
{(
ϑ − ω d ) + (τ − t d ) exp j ω µ τ − ϑt µ + ω d t µ
2
4 )}
(6.62)
1
FAx 2, x 1 (ϑ , τ ) = exp −
4α
( α 2
{(
ϑ + ω d ) + (τ + t d ) exp j ω µ τ − ϑt µ + ω d t µ
2
4 )}
où
t1 + t2 f1 + f 2
tµ = ; fµ = ; t d = t1 − t 2 ; f d = f1 − f 2 (6.63)
2 2
A partir de ces relations, on peut voir que les termes (6.61) sont localisés autour de l’origine et
les termes d’interférence sont localisées autour des points (t d ,ω d ) et ( − t d ,−ω d ) , donc loin de
l’origine (la distance étant déterminée par (t d ,ω d ) ), comment on peut le voir sur la figure suivante.
τ
FAx1,x2
td
FAx1+ FAx2
− ωd
ωd ϑ
-t d
FAx2,x1
Figure 6.12. La fonction d’ambiguïté des deux signaux gaussiens
En utilisant les mêmes notations qu’en 6.63 et l’expression de DWV (6.8), on obtient la
distribution de Wigner-Ville du même signal :
WV x (t , ω ) = ∑ WV xi (t , ω ) + WV x1, x2 (t , ω ) + WV x2 , x1 (t , ω )
2
(6.64)
i =1
où:
- les termes propres de la DWV, WVxi, sont donnés par:
1
WV xi (t , ω ) = 2 ⋅ exp − (t − t i ) 2 + α (ω − ω i )2 ; i = 1, 2 (6.65)
α
- les termes d’interférences de la DWV, WVx1,x2 et WVx2,x1, sont donnés par:
( )
WV x1 ,x 2 (t , ω ) = WV x2 , x1 (t , ω ) = 2 ⋅ exp − α t − t µ 2 + ω − ω µ 2
1
α
( )
(6.66)
{ [( )
× exp j ω − ω µ t d + ω d t ]}
Si on écrit la DWV et la FA en fonction de l'amplitude et de la phase,
DWV x1, x2 (t , ω ) = ADWV (t , ω ) exp{ jϕ DWV (t , ω )}
(6.67)
FAx1, x 2 (ϑ , τ ) = AFA (ϑ , τ ) exp { jϕ FA (ϑ , τ )}
∂ ∂
ϕ DWV (t , ω ) = t d ϕ FA (t , ω ) = ω d (6.69)
∂ω ∂t
qui assure la réciprocité. Cette propriété est présentée sur la figure suivante. On observe que, par
rapport à la fonction d’ambiguïté, la situation est inverse : les termes d’interférences WVx1,x2 et
WVx2,x1 occupent la même position et, par conséquent, leur amplitude est deux fois plus grande que
l’amplitude des termes propres. En plus, les interférences sont placées autour du point t µ , ω µ , donc, ( )
entre les termes utiles. Cela est présenté sur la figure suivante; on représente également le plan
d’ambiguïté pour illustrer la propriété énoncée auparavant.
τ
ω 1.2.
1.1. Pla FAx1,x2 Pla
WVx2 td
ω2 FAx1+ FAx2
WVx1,x2+WV x2,x1
− ωd
ωµ ωd ϑ
ω1 -t d
WVx1 t
tµ FAx2,x1
t1 t2
Figure 6.13. La liaison entre la DWV et la FA
Si ω1 =ω2 =ω0 (les deux signaux gaussiens ont le même centre fréquentiel), alors la FAx1,x2
donnée par (6.62) devient :
1 2 α
FAx1, x 2 (ϑ ,τ ) = exp −
ϑ + (τ − t d ) 2 exp j ω 0τ − ϑt µ {( (6.70) )}
4α 4
qui est concentrée sur l'axe retard (τ). La distance entre le centre de FAx1,x2 et l'origine est t d ,
comme montré sur la figure 6.14. τ
ω 1.3. Pla FA x1,x2 1.4. Pla
t d
WVx1,x2+WV x2,x1
ωµ ϑ
-t d
t FAx2,x1
tµ
Figure 6.14. La correspondance entre le plane temps-fréquence et
e plane d'ambiguïté pour ω1 =ω2 =ω0
D'une manière similaire, pour t 1 =t2 =t0 , la fonction d'ambiguïté sera concentrée sur l'axe ϑ et
(6.62) devient :
1
FAx1, x12 (ϑ , τ ) = exp − {(
(ϑ − ω d )2 + α τ 2 exp j ω µ τ − ϑt0 + ω d t0 (6.71) )}
4α 4
τ τ
= ∫ s u + s* u − φ (t − u, τ )du
2 2
où φ (t , τ ) représente la transformée de Fourier inverse de Φ (ϑ ,τ ) . Cette équation indique que la
fonction d'autocorrélation instantanée proposée par Cohen est une version filtrée linéairement de
s(t+τ/2)s* (t-τ/2), qui représente la fonction d'autocorrelation employée par la distribution de Wigner-
Ville. En conséquence, la différence entre la DWV et les autres distributions de la classe de Cohen
(comme la distribution de Choi-Williams) est complètement déterminée par la nature du filtre φ (t , τ ) .
Si φ (t , τ ) est un filtre passe-tout, c'est-à-dire Φ (ϑ ,τ ) =1, R(t, τ ) devient :
τ * τ
R(t , τ ) = ∫ FA(ϑ , τ ) exp { jϑt }dϑ = s t + s t −
1
(6.74)
2π 2 2
qui représente l'expression de la fonction d'autocorrelation employée par la distribution de Wigner-
Ville. L'expression générale de la classe de Cohen s'obtient en remplaçant, dans la définition du
spectre de puissance dépendant du temps (6.3.), l'expression de R(t, τ ) proposée par Cohen (relation
(6.72)) :
C (t , ω ) = ∫ ∫ FA(ϑ ,τ )Φ(ϑ ,τ ) exp{ j (ϑt − ωτ )}dϑdτ
1
(6.75)
2π
Tableau 6.1. Contraintes induites sur le noyau par les propriétés de la RTF correspondante
Propriétés Contraintes sur le noyau
1. Invariance par translation temporelle Indépendance de temps (t)
2. Invariance par translation fréquentielle Indépendance de fréquence (ω)
3. Valeurs réelles Φ (ϑ , τ ) = Φ (− ϑ , −τ )
4. Marginal en temps Φ (ϑ ,0 ) = 1
5. Marginal en fréquence Φ (0, τ ) = 1
6. La fréquence instantanée ∂
Φ (ϑ ,0 ) = 1 et Φ (ϑ , τ ) τ =0 = 0
∂τ
7. Le retard de groupe ∂
Φ (0, τ ) = 1 et Φ (ϑ , τ ) ϑ =0 = 0
∂ϑ
8. Positivité Φ (ϑ,τ ) est la fonction d'ambiguïté d'un fonction
γ(t)
Par la suite on liera les approches temps-fréquence classiques déjà introduites (spectrogramme
et PWVL) au cadre général de la classe de Cohen.
Tout d'abord, on montre que le spectrogramme appartient à la classe de Cohen. On suppose
une fonction temporelle γ(t) dont la fonction d'ambiguïté vaut :
τ * τ
Φ (ϑ , τ ) = ∫ γ t + γ t − exp{− jϑt }dt (6.79)
2 2
et, par la transformée de Fourier inverse, on obtient :
τ * τ
φ (t , τ ) = γ t + γ t − (6.80)
2 2
En remplaçant (6.80) en (6.76) on obtient :
τ τ τ τ
C (t , ω ) = ∫∫ γ t − u + γ t − u − s u + s * u − exp {− j ωτ }dudτ =
2 2 2 2
τ τ τ τ τ τ
= ∫ s u + γ * t − u + exp − j ω u + du ∫ s * u − γ t − u − exp j ω u − dτ
2 2 2 2 2 2
τ τ
Avec les changements de variables x = u + et y = u − on obtient :
2 2
( )( )
C (t , ω ) = ∫ s ( x )γ (t − x ) exp {− j ωx}dx ∫ s ( y )γ (t − y ) exp {− j ωy}dy =
* *
(6.81)
= TFCTs (t , ω )TFCTs* (t , ω ) = TFCTs (t , ω ) = SPs (t , ω )
2
Le problème avec le noyau employé par le spectrogramme est dû au fait qu’on ne dispose que
d'un seul degré de liberté pour le choix du noyau. Si on rajoute encore un degré de liberté par la
définition de fonction noyau suivante :
Π (t, ω ) = g (t )Γ(− ω ) (6.83)
(où Γ(ω ) est la transformée de Fourier de la fenêtre γ(t)) on pourra contrôler indépendamment la
performance de la nouvelle RTF sur toutes les deux axes (temps et fréquence). On obtient la
distribution Pseudo Wigner-Ville Lissée, qui a été présenté dans la section (6.2.1). Le compromis
associé au spectrogramme entre la résolution temporelle et fréquentielle est remplacé, dans le cas de
la PWVL, par le compromis entre la résolution temps-fréquence et le niveau de termes d'interférence.
En termes pratiques, on multiplie la fonction d'autocorrélation locale du signal par une fenêtre
glissante γ centrée en t puis on prend sa DWV. Cette opération correspond à un lissage selon l’axe
des fréquences. La DWV du signal fenêtré est ensuite lissée selon l’axe de temps, par un filtre de
réponse impulsionnelle g. Par ce lissage séparable, on peut régler indépendamment les
caractéristiques de lissage selon l’axe des temps et selon l’axe des fréquences. D’une manière
générale, le lissage spectral, introduit sous la forme d’une fenêtre glissante, vise à atténuer les
interférences entre les composantes temporelles, tandis que le lissage temporel vise à atténuer les
interférences entre les composantes fréquentielles.
Sur la figure 6.15. on présente la PWVL d’un signal constitué par deux MLF (2 chirps), avec
la RTF idéelle présentée sur la même figure. Pour comparaison on représente également la DWV :
malgré à une bonne résolution, la DWV introduit beaucoup des termes d’interférences.
Le principe de la PWVL, présenté ci-dessus, consiste en l’application d’un lissage temporel et
fréquentiel, ce qui est équivalent avec l’application d’un noyau rectangulaire dans le plan d’ambiguïté
(voir la figure 6.15.). Conformément à la propriété de la FA, démontré dans la section 6.3.1.), par ce
noyau on va garder les termes propres (qui se trouve autour de l’origine) et on va éliminer la plupart
des termes d’interférences.
Néanmoins, l’application de ce noyau va diminuer la résolution T-F ; pour optimiser la
résolution on va effectuer un lissage indépendant en temps et un fréquence. La recherche des
paramètres optimaux de lissage est souvent difficile à réaliser et, donc, l’application de cette méthode
est limitée dans le cas où on connaisse la structure du signal.
RTF idéelle Distribution de Wigner-Ville
Fréquence
Fréquence
Temps Temps
Plan d’ambiguïté Pseudo Wigner-Ville Lissée
Fréquence
Doppler
Noyau
Retard Temps
Figure 6.15. Comparaison entre la DWV et la PWVL
Ainsi, une application qu’on peut l’envisagée est le débruitage des signaux.
Le grand intérêt pour l’étude de la classe de Cohen, pendant ces dernières années, a été la
découverte de nouvelles représentations temps-fréquence qui permettent à la fois de conserver toutes
les propriétés utiles d’une RTF mais aussi la suppression de termes d’interférence. Comme nous
ENSIETA, Janvier 2002 139
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
avons vu dans la section 6.3.1., la partie de la fonction d’ambiguïté qui correspond aux termes
propres est localisée autour de l’origine du plan d’ambiguïté, tandis que la partie correspondante aux
termes d’interférence tend de se distribuer plus loin de l’origine. Cette propriété a été à la base de
plusieurs études pour la construction d’une fonction noyau Φ (ϑ ,τ ) afin que le produit
Φ(ϑ , τ )FA(ϑ , τ ) soit localisé au voisinage de l’origine. Cependant, en introduisant quelques
contraintes sur Φ (ϑ ,τ ) , on peut assurer, selon le tableau 6.1., la conservation d’une partie des
propriétés utiles, en fonction d’une application concrète. Néanmoins, la satisfaction de ces propriétés
et la suppression des termes d’interférence ne peuvent pas être accomplies simultanément. Par
exemple, pour réduire les termes d’interférence, le produit Φ(ϑ , τ )FA(ϑ , τ ) doit être nul pour ϑ et
τ grands. De l’autre côté, les propriétés de marginales en temps et en fréquence imposent :
qui impliquent l’existence non-nulle de ce produit sur les axes ϑ et τ . Mathématiquement, cette
condition est en contradiction avec celle qui est nécessaire pour assurer la réduction des termes
d’interférence. En pratique, il va falloir réaliser un compromis entre la satisfaction des propriétés
utiles et le niveau de termes d’interférence résidents.
Dans cette section on présente quelques RTFs qui représentent les éléments de base de la
classe de Cohen. On présente la spécificité de chacune des méthodes concernant la réduction des
termes d’interférence et les conséquences sur la conservation des propriétés utiles.
Pour éliminer, dans le plan d’ambiguïté, les termes qui se trouvent loin de l’origine, Choi et
Williams [8] ont proposé l’introduction d’un noyau exponentiel :
π (ϑτ ) 2
Φ (ϑ , τ ) = exp − (6.85)
2σ 2
Le paramètre σ 2 contrôle le taux de décroissance de la fonction exponentielle. Si ce paramètre
est petit on éliminera la plupart des termes d’interférence, mais on affectera les termes propres. Il
s’agira toujours d’un compromis pour le choix de σ 2 .
L’expression de la distribution CW est :
2σ 2 ( s − t )2
2 ∞σ − τ τ
CWx (t, f ) =
π ∫ ∫−∞ τ
e τ2
x s + x* s − e − j 2 πfτ dsdτ (6.86)
2 2
Sur la figure suivante on présente l’exemple d’application de la distribution de CW dans le cas
du même signal de test utilisé antérieurement pour la PWVL.
Plan d’ambiguïté Distribution de Choi-Williams
Fréquence
Doppler
Retard Temps
Figure 6.16. Distribution de Choi-Williams
Projection 2D
Représentation 3D du noyau de la DCW
Amplitude
L’expression du noyau, donnée en (6.83), satisfait les propriétés imposées aux noyaux (voir le
tableau 6.1.). Cela représente un avantage par rapport à la PWVL où ces propriétés étaient respectées
seulement pour des noyaux avec des structures particulières. Un autre avantage est représentée par la
résolution T-F obtenue (voir la figure 6.15. et 6.16.) qui est meilleure dans le cas de la distribution de
Choi-Williams. En plus, cette transformation est plus facilement applicable en pratique que la PWVL
car dans ce cas on a un seul paramètre à régler ( σ 2 ) alors que dans le cas de la PWVL il nous faut
choisir deux fenêtres de lissage.
Néanmoins, en raison de la structure du noyau utilisé (qui présente les propriétés :
φ ( 0,0) = 1 et φ ( ξ , τ ) < 1 si ξ ≠ 0, τ ≠ 0 ), on peut rejeter tous les termes d’interférence entre les
fonctions avec des centres temps-fréquence différents, mais on garder les termes d’interférences entre
les composants avec les support temporel et/ou fréquentiel superposés. Sur la figure suivante on
présente ces deux cas.
DCW des atomes avec des centres T-F différents DCW des atomes avec le support fréquentiel superposé
Fréquence
Fréquence
Temps Temps
Figure 6.18. La géométrie des interférences pour la distribution CW
En [9], Rihaczek a proposé une expression alternative pour la distribution de l’énergie temps-
fréquence d’un signal. Ainsi, il a considéré l’interaction énergétique entre un signal s restreint à un
intervalle infinitésimal δ T centré en t et le même signal s passé par un filtre passe-bande de bande
infinitesimale δ B centré en υ. Cette interaction peut être exprimée par :
ENSIETA, Janvier 2002 141
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
[
δ T δ B s (t )S * (υ )e − j 2πυ t ] (6.87)
Cette grandeur nous permet d’introduire la distribution de Rihaczek par :
Rs (t ,υ ) = s (t )S * (υ )e − j 2πυ t (6.88)
qui représente la distribution de l’énergie du signal autour d’un point (t, υ). Cette distribution est un
élément de la classe de Cohen ([6]) pour lequel la fonction de noyau est définie par :
Φ (ϑ , τ ) = e j πϑτ (6.89)
Comme cette relation le montre, le noyau aura une forme complexe ; sur la figure suivante on
présente le module carré de ce noyau.
Amplitude
Retard
Doppler
Figure 6.19. Représentation graphique 3D du noyau de la distribution de Rihaczek
Doppler
Retard
La structure des termes d’interférence générés par les distributions de Rihaczek et Margenau-
Hill est différente par rapport à la géométrie des termes d’interférence générés par la distribution de
Wigner-Ville : les termes d’intérference associés aux points (t 1 ,υ1 ) et (t 2 ,υ2 ) sont localisés aux points
(t 1 ,υ2 ) et (t 2 ,υ1 ). Pour démontrer cette propriété on suppose un signal s(t)=s1 (t)+s2 (t) où s1 (t) et s2 (t)
sont deux atomes gaussiens dont la transformée temps-fréquence idéale est illustrée sur la figure
6.21.a. L distribution de Rihaczek de s(t) est donnée par :
Rs (t ,υ ) = [s1 (t ) + s 2 (t )][S1 (υ ) + S 2 (υ )] e − j 2πυt = s1 (t )S1* (υ )e − j 2πυt + s 2 (t )S *2 (υ )e − j 2πυ t +
*
Cette relation montre que les termes d’interférence sont situés autour des centres énergétiques
de s1 (t)S2 (υ) et, respectivement, s2 (t)S1 (υ). Autrement dit, les termes d’interférence sont situés autour
de points (t 1 ,υ2 ) et (t 2 ,υ1 ), comme montré sur la figure 6.21.b.
Signal de test : 2 atomes gaussiens
Fréquence
Distribution de Rihaczek
υ2
Fréquence
υ1
Temps
t1 t2 Temps
a. RTF idéale de deux atomes gaussiens b. Distribution de Rihaczek
Motivé par la construction d’une densité d’énergie causale, plus adaptée à l’implémentation
pratique, Page [10] a proposé la distribution temps-fréquence suivante :
d t 2
t − j 2πυ t (6.93)
*
Ps (t ,υ ) = ∫ s (u )e du = 2 Re x (t ) ∫ s(u )e
− j 2πυ u − j 2πυ u
du e
dt −∞ −∞
Celle-ci correspond à l’élément de la classe de Cohen pour lequel la fonction noyau est définie
par :
Φ (ϑ , τ ) = e
− jπϑ τ
(6.94)
dont l’expression temporelle vaut :
τ
φ (t , τ ) = δ t − (6.95)
2
Le noyau spécifique à cette distribution est présenté sur la figure suivante :
Amplitude
Doppler Retard
Ce noyau vérifie la plupart de propriétés présentées dans le tableau 6.1. sauf 3 et 8. En plus,
par rapport à la DWV, la distribution de Page ne respecte pas la propriété de compatibilité par
filtrage. Néanmoins, l’intérêt pour la distribution de Page est due au fait qu’elle est le seul élément de
la classe de Cohen qui est simultanément causal, unitaire, compatible avec les modulations et qui
conserve les supports temporel et fréquentiel.
La géometrie de termes d’interférence est similaire à celle de la distribution de Rihaczek (voir
[3]) d’ou les mêmes limitations pratiques.
ENSIETA, Janvier 2002 143
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
Pour assurer la propriété de conservation des supports temporel et fréquentiel, Born et Jordan
ont proposé une fonction noyau de la forme suivante :
sin (πϑτ )
Φ (ϑ , τ ) = (6.96)
πϑτ
Cette fonction définit la distribution de Born-Jordan exrpimée par :
∞ t+τ / 2
BJ s (t , υ ) = ∫ s(u + τ / 2)s * (u − τ / 2 )due − j 2πυτ dτ
1
τ ∫ (6.97)
−∞ t − τ / 2
Sur la figure suivante on présente le noyau de la distribution de Born-Jordan. On observe que
la forme de ce noyau s’approche de celle du noyau de la distribution de Choi-Wiliams, mais, par
rapport à celle-ci, la distribution de Born-Jordan respecte la propriété de conservation du support
temps-fréquence.
Représentation spatiale Projection 2D
Aplitude
Doppler
Doppler Retard
Retard
Figure 6.23. Représentation du noyau de Born-Jordan
Ceci est mis en évidence sur la figure suivante où on représente la DCW et la DBJ d’un signal
composé de deux sinusoïdes de fréquences différentes, avec le même support temporel (voir 6.24.a).
RTF idéale
Fréquence
a. Temps
Distribution de Choi-Williams
Fréquence
b. Temps
Distribution de Born-Jordan
Fréquence
c. Temps
Figure 6.24. Comparaison entre la distribution de Choi-Wiliams et de Born-Jordan
Une autre observation pratique qu’on puisse faire est que la géométrie des termes
d’interférence générés par ces deux distributions est la même (figure 6.24.b et 6.24.c) : on aura
ENSIETA, Janvier 2002 144
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
toujours des termes d’interférence entre les composantes dont les supports temporels et/ou
fréquentiels sont superposés. Ceci est dû à la structure des noyaux employés [3] et la réduction totale
de ces termes peut se faire par un lissage fréquentiel. Néanmoins, pour le même niveau de termes
d’interférence, la distribution de Born-Jordan conserve le support temporel des atomes du signal
(l’explication sera donnée dans le paragraphe correspondant à la distribution de Z.A.M.) (figure
6.24.c), tandis que, dans le cas de la distribution de Choi-Williams, la réduction des termes
d’interférence suppose l’utilisation d’un noyau étroit, qui induit une redistribution de l’énergie en
dehors du support physique du signal (figure 6.24.b).
Un autre avantage de la DBJ est lié au fait que, dans ce cas, il n’y aucun paramètre à choisir,
par opposition à DCW où le choix de σ est essentiel pour avoir une bonne lisibilité de l’image temps-
fréquence issue.
Comme on vient de l’observer sur la figure précédente, la réduction totale des termes
d’interférence peut se faire par un lissage temporel à travers l’axe fréquentiel.
Ceci a été exploité par Zhao, Atlas et Marks [11], qui ont proposé l’utilisation d’une fenêtre de
lissage h, capable de générer un noyau de forme conique (« cone-shape kernel ») et capable de
produire une atténuation importante des termes d’interférence. En effet, la distribution proposée peut
être vue comme étant une généralisation de la distribution de Born-Jordan, pour une fenêtre arbitraire
h:
∞ t+τ / 2
ZAM s (t ,υ ) = ∫ h(τ ) ∫ s (u + τ / 2 )s (u − τ / 2)due
* − j 2πυτ
dτ (6.98)
−∞ t− τ / 2
τ
Amplitude
τ=-2t τ=2t
τ
t
a. Fonction de forme conique b. Représentation spatiale de φ(t,τ)
Figure 6.25. Représentation graphique de φ(t,τ)
On montre alors que la forme conique du noyau assure la conservation du support temporel (la
démonstration sera similaire dans le cas fréquentiel). On suppose un signal de support temporel
limité, donné par :
≠ 0, t ∈ [− T / 2, T / 2]
s(t ) =
= 0, t ∉ [− T / 2, T / 2]
(6.100)
On cherche la forme générale de φ(t,τ) pour laquelle la RTF associée conserve le support
fréquentiel :
≠ 0, t ∈ [− T / 2, T / 2]
C s (t , ω ) =
= 0, t ∉ [− T / 2, T / 2]
(6.101)
Retard
Retard Doppler
Doppler
Projection 2D Projection 2D
Retard
Retard
Doppler Doppler
Figure 6.26. Le noyau de la distribution de Zhao-Atlas-Marks
Doppler
Doppler
Noyau de la Noyau de la
DCW DZAM
DCW DZAM
Fréquence
Fréquence
Temps Temps
Figure 6.27. Comparaison entre la DCW et la DZAM
6.3.4. Conclusion
Dans cette section nous avons abordé la problématique des RTFs issues de la classe de Cohen.
Nous avons vu que chaque élément de cette classe est lié, d’une manière univoque, à une fonction
noyau de parametrisation.
En fonction du choix de ce noyau, on peut obtenir différentes distributions temps-fréquence,
adaptées pour une certaine classe de signaux. Par exemple, la distribution de Wigner-Ville (qui est
obtenue pour φ (υ , τ ) =1) est bien adaptée à des signaux de modulation linéaire de fréquence.
Une autre propriété importante des distributions de la classe de Cohen est l’invariance par
translation en temps et en fréquence. Cette propriété est très utile en traitement du signal radar ou
sonar, où on ne connaît pas la position du signal reçu dans le plan temps-fréquence.
Malheureusement, la propriété de biliniarité induit des termes d’interférence, qui affectent
gravement le processus d’interprétation de l’information dans le plan temps-fréquence. Comme
solution potentielle, on peut envisager la construction d’un noyau susceptible de ne retenir que les
termes propres. Mais, un noyau fixé ne peut assurer des bonnes performances que pour une classe
étroite des signaux.
Pour ces raisons, il est apparu un fort intérêt pour les distributions temps-fréquence avec des
noyaux adaptés aux structures des signaux (noyau dépendant du signal). Un noyau optimal, comme
on le verra dans le paragraphe suivant, appliqué dans le plan d’ambiguïté du signal, permet une très
bonne extraction des caractéristiques du signal.
Un choix naturel du noyau peut être le noyau gaussien, qui nous assure un meilleur compromis entre
la résolution temps-fréquence [1]. Ce choix, spécifique à la transformation de Choi-Williams,
représente le point de départ pour l’approche qu’on présentera par la suite.
Tout d’abord, on introduit, dans la structure du noyau gaussien classique, un paramètre variable
(6.107), qui permet l’adaptation du noyau à la structure du signal , dans le plan d’ambiguïté.
τ 2 +ϑ2
φ (ξ , τ ) = exp −
(6.107)
2σ 2
(ψ )
où σ(ψ) représente la distribution des points du noyau pour un certain angle ψ. On appelera cette
variable « la fonction de distribution angulaire » .L’angle ψ est mesuré par rapport à l’axe τ, :
ϑ
ψ = arctan (6.108)
τ
où (τ ,ϑ ) - représente la paire retard-Doppler.
La nouvelle structure de ce noyau permet l’utilisation d’une procédure d’optimisation pour
adapter la forme de celui-ci à la structure du signal. Pour la construction efficace de cette procédure,
on utilise l’expression du noyau en coordonnées polaires (6.109). La méthode de transformation est
détaillée en [12].
L’expression (6.109) montre que, en effet, l’optimisation du noyau est équivalente à
l’optimisation du choix de ψ.
r2
φ (r ,ψ ) = exp − , r = τ 2 + ϑ 2
(6.109)
2σ 2
(
ψ )
La procédure d’optimisation consiste à chercher φ opt qui maximisera la fonction présentée
dans la relation (6.110) :
2π ∞
∫ ∫ A(r ,ψ )φ (r ,ψ )
2
f = rdrdψ (6.110)
0 0
Cette fonction représente la distribution d’énergie dans le plan d’ambiguïté, pour différentes
valeurs de l’angle ψ. Le but est de trouver les valeurs optimales de ψ pour lesquelles cette distribution
est maximale. En conséquence, les valeurs obtenues permettront de mettre en évidence les
composants d’un signal multi-structures.
L’intérêt pour l’optimisation dans le plan d’ambiguïté est justifié par la propriété de
séparation entre les termes utiles et les termes d’interférence : lorsque dans le plan temps-fréquence
les termes d’interférence se trouvent parmi les composantes utiles, dans le plan d’ambiguïté ils sont
placés loin d’origine (voir la section 6.3). Donc, on peut faire l’extraction des termes utiles en
considérant un masque qui gardera seulement les termes autour de l’origine (en effet, c’est l’idée de
construction des noyaux pour les RTFs de la classe de Cohen ). Ce masque (noyau) sera adapté pour
fournir le meilleur compromis entre la conservation du support temps-fréquence et la suppression des
termes d’interférences (si le masque est étroit, on éliminera la plupart des termes d’interférence, mais
on perdra aussi des termes utiles ; par contre, si le masque est grand, on garde beaucoup de termes
d’interférences). Pour résoudre ce compromis, on introduit une contrainte pour la procédure
d’optimisation (6.111) : le volume du noyau doit être inférieur à une certaine valeur α . Cette valeur
contrôlera le niveau des interférences et sera fixée au début.
1 2π ∞ 1 2π 2
∫ ∫ Φ (r , ψ ) 2
rdrd ψ = ∫ σ (ψ )dψ ≤ α , α ≥ 0 (6.111)
4π 2 0 0 4π 2 0
ENSIETA, Janvier 2002 148
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
Evaluation de Φopt
2π ∞
Dans une première étape, on calcule la fonction d’ambiguïté du signal. Ensuite, à partir de
celle-ci, on cherche φ opt qui maximise la fonction f. On utilise, comme procédure d’optimisation du
choix de φ opt , un algorithme du gradient, détaillé en [12]. On utilise un pas variable : au début, grand
et ensuite, de plus en plus petit, pour éviter les valeurs maximales locales. On utilise, comme
condition d’arrêt de l’algorithme soit le nombre imposé d’itérations, soit la grandeur de la
modification par rapport à l’itération antérieure.
Le noyau obtenu pondère la fonction d’ambiguïté et le résultat sera transformé dans le plan
temps-fréquence, en utilisant la transformation de Fourier bidimensionnelle.
Sur la figure suivante, on illustre ce principe, à partir d’un signal synthétique, composé de
deux chirps. La transformation temps-fréquence idéale de celui-ci est présentée dans la figure 6.29.a.
RTF idéale RTF adaptative Noyau optimal
Fréquence
Fréquence
Doppler
Temps Retard
a e
d
2π ∞
∫ ∫ A (r , ψ )φ (r , ψ )
Plan d’ambiguïté 2 Procédure
f = rdrd ψ d’optimisation
Noyau gaussien
0 0
ψ
Doppler
Retard ψ [rad]
b c
Figure 6.29. Le principe de la RTF à partir du noyau gaussien adaptatif
(a) RTF idéale du signal ; (b) Fonction d’ambiguïté et positionnement du noyau ;
(b) Fonction f pour différentes valeurs de ψ ; (d) Noyau optimal obtenu par la procédure d’optimisation
(e) Représentation temps-fréquence adaptative
Sur la figure 6.29.b on peut voir la fonction d’ambiguïté du signal et, également, le noyau
pour un certain angle ψ ; pour un intervalle de variation [0 ;2π] on obtient une fonction f qui est
présentée sur la figure 6.29.c. On voit deux pics, correspondants aux angles pour lesquels le noyau
recouvre les structures correspondantes des signaux chirp.
Après l’application de la procédure d’optimisation (extraction des maxima) on obtient le
noyau optimal, présenté sur la figure 6.29.d. Enfin, sur la figure 6.29.e. on peut voir la transformation
ENSIETA, Janvier 2002 149
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
Fréquence
Figure 6.30. Distribution PWVL et CW du signal composé de deux chirps
En pratique, l’application de cette méthode sera toujours un problème parce qu’on ne dispose
pas d’une information qui peut dire quelle est la taille optimale de la fenêtre. Une solution pour
résoudre ce problème consiste en utilisation de l’information offerte par le plan de phase, obtenu par
la Décomposition en Paquet d’Ondelettes Invariante en Temps (SIWPD – Shift Invariant Wavelet
Packet Decomposition). Le principe de cette méthode est présenté sur la figure 6.32. Comme signal
de test, on utilise on utilise un signal à 8 sauts de fréquence (FSK 8) ; sa RTF idéal est présentée sur
cette figure.
A partir de SIWPD on obtient le plan de phase et, ensuite, la marginale en temps, qui nous
offre une information qui sera exploitée pour déterminer les longueurs optimales des fenêtres. Pour
chaque fenêtre on construit un noyau optimal qui permet d’obtenir une RTF optimale.
SIWPD
Fréquence instantanée
La marginale en temps
Temps
Figure 6.32. Le principe de RTF adaptative à court terme avec des fenêtres d’analyses variables
• Résultats comparatifs
Ce paramètre est défini pour un certain atome T-F et représente le support temporel de celui-ci
(∆t), normalisé à la taille du signal (T), c’est-à-dire :
∆t
DTSC = (6.112)
T
La signification ∆t et T est représentée sur la figure 6.33. Dans le cas idéal, ce paramètre vaut
1.
f
Fe
B
∆t
t
T
Figure 6.33. Les supports temporel et fréquentiel
Temps Temps
a b
MWVD RTF - NGA
Fréquence
Fréquence
Temps
Temps d
c
Figure 6.34. Comparaison entre différentes RTFs
(a) Pseudo Wigner-Ville Lissée avec la taille de g qui vaut 33 et
La taille de h qui vaut 123. (b) Distribution de Choi-Williams avec le paramètre de lissage σ=3.5.
(c) Modified Wigner-Ville distribution avec ε=0.15 and D=2.1.
(d) RTF avec le noyau gaussien adaptatif (NGA) : volume α=25
§ Conclusions
Dans ce chapitre, on a introduit une nouvelle méthode pour obtenir une transformation temps-
fréquence adaptative, ayant comme but l’élimination des termes d’interférence. En partant de la
classe de Cohen on a développé la notion de noyau gaussien adaptatif dans le plan d’ambiguïté et
ensuite une méthode pour le construire.
On a mis en évidence les principaux inconvénients et on a introduit une méthode pour
améliorer les performances.
On a étudié comparativement les approches introduites avec les plus classiques et on a vu que
les résultats obtenus sont meilleurs.
En conclusion, ces approches nous offrent la possibilité de traiter, d’une manière optimale, les
signaux multi-composantes. En plus, les notions présentées nous ouvrent de nouveaux champs
d’application, parmi lesquelles on peut mentionner :
- utilisation des paramètres du noyau optimal comme élément de classification des signaux ;
- ayant comme point de départ la notion de noyau optimal, on peut concevoir des poly-noyaux pour
caractériser les signaux avec une structure relativement compliquée (les signaux de
communications). Ces poly-noyaux peuvent être utilisés comme outil pour l’identification et la
séparation des composantes du signal traité.
Références
[1] S. Qian, D. Chen – “Joint Time-Frequency Analysis” , Pretince Hall, New Jersey, 1998
[2] P. Flandrin – "Représentations temps-fréquence" , Ed. Hermes, Paris, 1993
[3] L. Cohen - "Time-Frequency Analysis",
[4] A. Quinquis - "Représentations temps-fréquence", Support de cours, ENSIETA, 1995
[5] A. Papandreou, G.F. Boudreaux-Bartels - "A generalization of the Choi-Williams and the Butterworth time-frequency
distributions", IEEE Trans. Signal. Processing, vol. 41, pp. 463-472, 1993
[6] L. Cohen, "Time-frequency distributions - A review", Proc. IEEE, vol. 77, no. 7, pp. 941-981, July, 1989
[7] P.M. Woodward - "Probability and Information theory with Applications to Radar", Elmsford, NY: Pregamon Press,
1953
[8] H.I. Choi, W.J. Williams – "Improved Time-Frequency Representations of Multicomponent Signals Using
Exponential Kernels", IEEE Trans. Acoust., Speech, Sig. Proc, Vol. ASSP-37, no. 6, pp. 862-871, 1989
[9] A.W. Rihaczek – "Signal Energy Distribution in Time and Frequency", IEEE Trans. Info. Th., vol. IT-14, no. 3, pp.
369-374, 1968
[10] C.H. Page – "Instantaneous Power Spectra", J. Appl. Phys, vol. 23, pp. 103-106, 1952
[11] Y. Zhao, L.E. Atlas, R.J. Marks - "The Use of Cone-Shaped Kernels for Generalized Time-Frequency
Representations of Nonstationary Signals", IEEE Trans. Acoust. Speech. Sig. Proc., vol. ASSP-38, no. 7, pp. 1084-1091,
July, 1990
[12] R.G. Baraniuk and D.L. Jones - "A signal-dependent time-frequency representation: Optimal
kernel design", IEEE Trans. Signal Processing, vol. 41, pp. 1589-1602, April 1993
Exercices et problèmes
2. (Propriétés de la DWV)
a) Montrer les propriétés d'invariance par décalage temporel et fréquentiel (relations 6.15 et 6.16).
b) Justifier pour quoi ces propriétés sont souhaitées dans des applications comme la classification ou
la détection des signaux.
c) Montrer la propriété de covariance par dilatation dans la cas de la DWV
3. (Propriétés de la DWV)
a) Justifier les propriétés de compatibilité par filtrage et modulation
b) Justifier la propriété de conservation des supports temporel et fréquentiel.
c) Donner la preuve de la formule de Moyal.
d) Prouver la relation (6.27).
i =1 π 2
Quelle est la géométrie des termes d'interférence ?
0.3 0.3
0.2 0.2
0.1 0.1
25 30 35 40 45 25 30 35 40
6. (Discrétisation de la DWV)
Vérifier les propriétés d'invariance par translation et la modulation dans le cas de la DWV
discrète.
7. (PWVL)
Montrer que la PWVL respecte les propriétés d'invariance par translation et modulation.
8. (Fonction d'ambiguïté)
Calculer la fonction d'ambiguïté d'une fonction gaussienne donnée par
ENSIETA, Janvier 2002 154
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains"
6. Représentation temps-fréquence bilinéaires
1
α 4 α
s(t ) = exp − (t − t 0 )2 + jω 0 t
π 2
9. (Fonction d'ambiguïté)
a) Donner les preuves pour les relations 6.70 et 6.71.
b) Présenter, d'une manière schématique, la correspondance entre le plan temps-fréquence et le plan
d'ambiguïté dans le cas t 1 =t2=t0 .
a) Prouver que la distribution de Rihaczek respecte toutes les propriétés données dans le tableau 6.1.,
sauf la propriété 3.
b) Montrer que la distribution de Margenau-Hill ne respecte pas les propriétés de compatibilité par
filtrage et par modulation et celle d’unitarité.
a) Prouver que la distribution de Born-Jordan respecte les mêmes propriétés due à la distribution de
Choi-Williams, et, en plus, celles liées de la conservation du support temps-fréquence.
b) Montrer que la géométrie de termes d’interférence générés par la distribution de Choi-Williams
est identique à ceux générés par la distribution de Born-Jordan.
7
METHODES TEMPS-FREQUENCE MODERNES
L'analyse temps-fréquence repose sur la combinaison des deux variables temps et fréquence
dans une même représentation, fournissant ainsi une signature de l'évolution temporelle du contenu
spectral. C'est la raison pour laquelle les représentations temps-fréquence (RTF) ont connu un fort
développement, au niveau des outils disponibles, et une grande extension de la gamme d'applications:
traitement du signal sonar et radar [1], imagerie médicale, communications numériques, etc.
La classification des signaux, en utilisant des paramètres extraits du plan temps-fréquence
représente un domaine où les RTFs sont les approches les plus adaptées, grâce à l'information
complète sur la nature du signal que l'on peut extraire de plane temps-fréquence [4]. Néanmoins,
dans le cas des RTFs quadratique (voir chapitre 6), la classification est rendue difficile en raison de la
bilinéarité des distributions de la classe de Cohen qui génèrent des termes d'interférence.
Le succès de l'extraction des caractéristiques discriminantes est assuré si la RTF utilisée est
adaptée aux signaux traités. Il est donc nécessaire d'appliquer, à chaque signal, sa RTF optimisée.
Pour des signaux ayant une structure simple, la RTF optimale peut être une des représentations de la
classe de Cohen, mais pour les signaux dont la structure est plus complexe, le choix de la meilleure
RTF pose des problèmes difficiles à surmonter, car les noyaux classiques ne préservent pas un
ensemble des propriétés acceptables pour résoudre le problème posé.
La question fondamentale est donc : comment peut-on augmenter la lisibilité d'une RTF pour
extraire les paramètres d'un signal ? Une première méthode temps-fréquence adaptative, proposée au
début des années '90, est la RTF basée sur le noyau gaussien adaptatif (NGA), qui a été décrite dans
la section 6.4. On a vu que cette méthode est capable de fournir une image temps-fréquence avec un
niveau réduit de termes d'interférence. Néanmoins, cette approche présente deux inconvénients
majeurs, illustrés sur la figure 7.1.
En pratique, il est souvent difficile de trouver la bonne valeur pour le paramètre α (section
6.4), surtout pour les signaux ayant une structure complexe dans le plan temps-fréquence. Si la valeur
du volume est trop petite, on élimine tous les termes d’interférence, mais les supports temporel et
fréquentiel sont affectés. Dans le cas contraire la RTF sera toujours entachée d'interférences. Ce
phénomène est illustré sur la figure suivante, en considérant comme signaux de test une modulation
discrète en fréquence à 8 états (figure 7.1.a.). et un mélange d'une sinusoïde, une modulation
hyperbolique de fréquence et d'une impulsion (figure 7.1.b.).
Dans le premier cas (figure 7.1.a.), il est difficile de mettre en évidence toutes les
composantes. Pour y arriver on a choisi α=25. Par conséquent, le choix de α est déterminant pour les
performances de la RTF-NGA et, donc, il faut définir une procédure pour estimer cette valeur.
Puisque cette procédure sera dépendante de la structure du signal, elle ne sera valable que pour une
classe étroite de signaux.
Sur la figure 7.1.b., un autre inconvénient est mis en évidence, lié à la forme particulière du
noyau. La RTF-NGA, de ce signal, caractérisée par un niveau relativement élevé des termes
d’interférence, montre l’incapacité du noyau gaussien à s’adapter à une structure d’un signal
multicomposantes.
Fréquence
Fréquence
Temps Temps
a. Influence de la valeur de α sur la lisibilité de la RTF
Plan d’ambiguïté RTF-NGA: α=10
Fréquence
Doppler
Retard Temps
b. Influence de la forme du noyau
Une solution consiste alors à construire des noyaux complexes (polynoyaux) qui vont
permettre de retrouver toutes les composantes dans le plan d’ambiguïté. Ces polynoyaux seront
composés par un certain nombre de noyaux gaussiens primaires dont les paramètres (l’angle par
rapport à l’axe de retard et la dispersion) pourront être calculés à partir de certaines fonctions de base
qui fourniront une approximation optimale (au sens de l’erreur d’approximation, par exemple) du
signal. Il s’agit du principe des décompositions adaptatives [1] développé dans la section suivante.
Ce principe, introduit par S.Mallat et Zhang [6] et appelé également "Matching Pursuit",
consiste en la projection, de manière itérative, d’un signal s(t) sur un ensemble de fonctions de base
hp (t) :
s( t ) = ∑ B p h p ( t ) (7.1)
r
hp
r
Bp hp
Figure 7.2. La décomposition adaptative du signal
ENSIETA, Janvier 2002 158
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
7. Méthodes temps-fréquence modernes
Initialement (p=0) on a s0 (t)=s(t) (le signal original). On cherche la fonction h0 (t) parmi
toutes les fonctions h(t) qui ressemble le plus au signal s(t). Le coefficient de la projection sera choisi
selon (on considère p=0) :
2
= max s p ( t ) , h p (t )
2
Bp (7.3)
hp
En [1, pag. 187] il est montré que le deuxième terme de la relation (7.7) a une énergie nulle.
Donc, on peut écrire l’expression générale de la représentation temps-fréquence adaptative (RTFA)
selon :
RTFA s (t , f ) = ∑ B p WV h p (t , f )
2
(7.8)
p
Le principe sera à la base du cadre général à la particularisation des relations présentées ci-
dessus aux deux familles de fonctions de base : les ondelettes et les chirplets.
= ∑ C λ ⋅WVϕ ( t , f )+ 2 ∑ Re Cλ C * λ' ⋅ WVϕ ,ϕ ' (t , f )
2
(7.12)
λ∈N λ
λ >λ' λ λ
L’équation (7.12) sépare la transformation de Wigner-Ville classique en deux parties :
Γ = {{λ , λ } 0 < d (ϕ , ϕ ) ≤ D, C C }
(7.15)
'
λ λ' λ λ'
≥ε M 2 2
d (ϕ λ , ϕ λ' ) représente la distance entre deux fonctions de base dans le plan temps-fréquence. La
quantité est définit par :
(
( t λ − t λ' )2 f λ − f λ' )
1/ 2
2
(
d ϕ λ ,ϕ λ' ) =
∆t λ ∆t λ'
+
∆f λ ∆f λ'
(7.16)
( )
où t λ , f λ est la position centrale de la fonction de base ϕ λ dans le plan temps-fréquence et ∆tλ et
∆fλ sont les ambiguïtés temporelle et fréquentielle. Par les modifications du seuil de distance et du
seuil d’amplitude ε, on peut supprimer la plupart des termes d’interférence [3].
Les fonctions de base sont données par:
ϕ l ,n ,m, k ( t ) = 2 l /2 ϕ n [ 2 l ( t − m) − k ] (7.17)
où l est le niveau de décomposition courant, n l’indice de fréquence, m l’indice d’invariance et k
l’indice de la position dans la cellule courante. A chaque fonction de base est associée une cellule
dans le plan temps-fréquence; le centre de celle-ci a les coordonnées :
t = ( k − 1) ⋅ 2 l + m + ( 2 l − 1) ⋅ Ch − 2 l−1 (7.18)
( n + 0.5)
f = (7.19)
2l
où Ch est le centre énergétique du filtre passe-bas, donné par la relation :
1
Ch = 2 ∑ j h j
2
(7.20)
h j ∈Z
où hj représente les coefficients du filtre passe-bas.
La largeur et la hauteur de cette cellule sont données par les relations suivantes :
∆t = 2 l−1 ; ∆f = 2 − l (7.21)
Ainsi, si on tient compte de l’amplitude des coefficients de la décomposition POIT, la
meilleure base et de la distance entre les centres énergétiques des ondelettes correspondantes, on
élimine les termes d’interférence en conservant la structure temps-fréquence du signal. Les
performances de cette méthode sont meilleures que celles obtenues par les méthodes présentées
antérieurement ; ce fait, justifié objectivement en [3], est dû à la décomposition en paquets
d’ondelettes invariante en temps (DPOIT), qui fournit la meilleure base au sens de l'entropie
minimale, et permet une sélection efficace des coefficients et, donc, un choix optimal des fonctions
de base.
Malgré ses performances, cette approche, introduite par I. Cohen [7], présente deux
inconvénients qui limitent son application :
- Les résultats de la DWVM dépendent fortement du choix du couple de paramètres (ε,D) qui
n’est pas toujours optimal et est difficile à définir. Pour s'affranchir de cet inconvénient, nous avons
proposé et argumenté deux techniques. A l'opposé de l’approche de I. Cohen, qui accordait la même
importance à tous les termes d’interférence, on a montré [11] que les termes d’interférences entre les
ondelettes qui appartiennent au même sous-espace du signal sont des termes utiles et doivent être
privilégiés par rapport aux autres. La première technique va permettre de garder tous ces termes et
éliminer les autres. Dans le même article, nous avons également montré l’intérêt pour un seuillage
adaptatif. Cette solution consiste à calculer, pour chaque sous-espace du signal, un seuil qui permet
d’améliorer les performances de la procédure de sélection des coefficients.
Ces deux techniques accroissent les performances de la DWVM. L’exemple suivant illustre
clairement les avantages offerts par la DWVM par rapport à la RTF-NGA et à la DWVM classique
(l’approche de I. Cohen). Cet exemple utilise le même signal que celui considéré pour mettre en
évidence les inconvénients de la RTF-NGA.
RTF-NGA: α=10 DWVM classique: ε=2; D=2.4 DWVM automatisée
Fréquence
Fréquence
Fréquence
Temps Temps Temps
Figure 7.3. Amélioration de la lisibilité par DWVM
Pour obtenir un dictionnaire "chirplet" adapté à la structure du signal de départ, il faut trouver une
méthode qui choisisse la meilleure combinaison des fonctions chirplets. Deux solutions peuvent être
formulées :
• La première, formulée par D. Lowe [9], consiste à représenter une structure temps-fréquence d’un
signal comme un mélange de distributions gaussiennes bidimensionnelles. Alors, on choisit les
fonctions chirplets bien adaptées à ces distributions.
• La deuxième, introduite par S. Chian [10], est de construire directement le dictionnaire à quatre
paramètres à partir du dictionnaire de Gabor à trois paramètres (décalages temporel, fréquentiel et
échelle) et en introduisant le quatrième paramètre (le taux de modulation) par l’application de la
transformation de Fourier fractionnaire (FRFT). Pour choisir itérativement les fonctions de base,
Bultan [10] a utilisé l’algorithme de « Matching Pursuit ».
θ = (t 0 , f 0 , c, d )
Le dictionnaire utilisé pour construire la RTFA est composé par l’ensemble de M fonctions de
type chirplet. Initialement, on ne construit pas le dictionnaire; on considère uniquement connu le
nombre de fonctions cherchées M (la dimension de l’espace de recherche). L’algorithme de cette
méthode peut être décomposé en deux phases (voir la figure 7.12).
La première phase permet d’estimer les paramètres de chaque fonction chirplet. Cette
estimation sera basée sur la maximisation du rapport de vraisemblance et, pour diminuer l’erreur
d’estimation, on utilisera la procédure d’optimisation de quasi-Newton. Cette procédure
d’optimisation donne un caractère optimal à cette RTFA.
La deuxième phase, permet d’obtenir effectivement la RTF en utilisant l’algorithme
"Matching Pursuit".
L’attribut adaptatif est dû à la procédure d’optimisation qui a une double action : localement,
elle cherche à trouver la fonction chirplet la mieux adaptée à une composante donnée du signal et,
globalement, elle définit l’ensemble des fonctions les mieux adaptées à la structure temps-fréquence
du signal.
Cette phase permet d’estimer les quatre paramètres de chacune des fonctions de
décomposition. L’estimation est itérative, pour obtenir une qualité satisfaisante de ce processus.
• Estimation globale :
On considère le signal s(t) comme une suite de deux chirps et sa représentation T-F présentée
sur la figure 7.6.a.
f f Energie cumulée
cg
π/4/M
t t c
cg
a. RTF du signal de depart b. Estimation globale de c
c. Energie cumulée
Figure 7.6. Estimation globale de c
Pour estimer le taux de modulation, on tourne, dans le plan TF, une droite (figure 7.6.b).
L’incrément angulaire vaut π . Pour chaque valeur de l'incrément angulaire, l’énergie
4M
cumulée (figure 7.6.c) est calculée et la valeur maximale correspond à la valeur estimée de c.
Cette valeur est alors utilisée pour l’estimation globale de la durée. Le principe est présenté
sur la figure suivante Energie cumulée
f dg
f
d
t t t0
Pour définir la longueur du signal d, on considère une fenêtre 2D de longueur variable (selon
la figure 7.7.b) et on calcule fois l’énergie de la région où cette fenêtre est superposée à l’atome.
L’énergie pour d ( d ∈[ 0; length ( s)] ) peut être représentée, comme sur la figure 7.7.c. et la
durée optimale (globale) représente la taille de la région où l’énergie reste approximativement la
même sous l'hypothèse d'un chirp faiblement atténué.
• Estimation de t0 et f0
Le paramètre t 0 peut être estimé (voir figure 7.7) comme correspondant à un certain
pourcentage de l’amplitude du front croissant. Pour l’estimation simultanée de (t 0,f0 ), on peut calculer
la transformation de Wigner-Ville du signal modulé avec la fonction chirplet obtenue à partir de c et
d. Le calcul de la marginale en temps et en fréquence permet alors d’avoir l’estimation de (t 0 ,f0 ). Un
exemple pour un signal composé de deux chirps, est présenté sur la figure 7.8.
Forme d’onde issue de
Signal de départ
l’estimation globale
Marginal en fréquence
Marginal en
tc temps
Signal modulé
TWV fc
• Estimation locale de c et d
Pour éviter les situations où l’énergie cumulée, en fonction de c, présente deux pics (deux
valeurs maximales) ou quand la fenêtre utilisée pour estimer d n’est pas bien superposée à l’atome
TF, on a établi qu’il est impératif d’avoir une étape d’estimation locale. On utilise la même procédure
que celle proposée pour l’estimation globale, mais en commençant la rotation autour du point (t0,f0 ),
calculé ci-dessus. Le principe et la comparaison avec l’estimation globale sont présentés à la figure
7.9. f f
dl
cl Axe de cl
reference
(t0 ,f0 ) (t0 ,f0 )
t t
Figure 7.9. Principe de l'estimation locale des paramètres
Forme d’onde
issue de
l’estimation
locale
Sur la figure 7.10 on peut observer que la forme d’onde obtenue par l’estimation locale est
plus adaptée à l’atome considéré que la forme obtenue par l’estimation globale.
Pour améliorer la qualité de l’estimation, on applique ces étapes trois fois. Un nombre plus
élevé d’itérations n’apporte pas de résultats plus significatifs.
Ces étapes permettent de définir un vecteur θe (la relation 7.22), qui sera la valeur d’entrée
pour la procédure suivante.
• Estimation optimale
Pour augmenter la précision de l’estimation, on a utilisé une méthode d’optimisation basée sur
la maximisation d’une fonction objective qui représente la projection du signal sur une certaine
fonction. Cette procédure est basée sur un algorithme du gradient.
Donc, la valeur optimale de θ est obtenue selon :
θ opt = MAX − s ⋅ ψ ( θ )
θ
[ 2
] (7.24)
Fonction de base
après l’estimation
optimale
Figure 7.11. L’estimation optimale des paramètres par rapport à la procédure locale
La fonction de base chirplet obtenue après la phase d’estimation, ψ θ opt , est utilisée pour la ( )
projection du signal. Ainsi, on obtient, à chaque itération, un ensemble (C ,ψ (θ )) (qui sera utilisé
i i opt
pour évaluer la transformation TF) et, également, le signal résiduel (la relation 7.26), qui sera utilisé
pour l'itération suivante (voir la figure 7.12).
( )
ss = s − Ci ⋅ ψ i θ opt
s, ψ (θ )
(7.26)
Ci = opt
Pour évaluer la RTF du signal de départ, on utilise les transformations TF de chaque atome retenu.
∑ C WV (ψ ) + WV ( ss ( ) )
N
TFRDAC 41 = i
2
i
N
(7.27)
i =1
cg , d g
Estimation de t 0 et f0
Estimation locale
de c et d Transformation T-F
( )
N
RTFDAC41 = ∑ C i2 WV (ψ i ) + WV ss ( N )
i =1
θ0=(t 0,f0,c,d)
Ensemble retenu
Evaluation du signal résiduel
(θ )
Estimation optimale C1 C2 Ci CN
[ ] θopt ss = s − C ⋅ψ
θ opt = MAX − s ⋅ ψ ( θ )
i opt
2
θ C i = s ,ψ (θ opt ) ψ1 ψ2 ψi ψN
Pour justifier les performances de l'approche propsoé, on a tout d’abord considéré un signal
composé de 6 chirps (modulations linéaires de fréquence - MLF) élémentaires. La transformation TF
idéale est présentée sur la figure 7.13.a.
RTF idéale RTFA-DAC4: M=12
Fréquence
Fréquence
Temps Temps
a. b.
Figure 7.13. RTF idéale et RTFA-DAC4 pour un signal composé de 6 MLF
La figure 7.13.b illustre le fait qu’on puisse bien localiser, dans le plan TF, les six éléments du
signal. Un autre exemple montre la capacité de DAC4 à approximer une structure non-linéaire dans le
plan TF. Le signal utilisé est un mélange d'un signal sinusoïdal, d'un chirp et d'une modulation
sinusoïdale en fréquence. Les résultats sont présentés sur la figure 7.14.
RTFA-DAC4: M=12 RTFA-DAC4: M=5
Fréquence
Fréquence
Temps Temps
RTFA-DAC4: M=16 RTFA-DAC4: M=20
Fréquence
Fréquence
Temps Temps
Figure 7.14. RTFA-DAC4 pour le deuxième signal de test pour différentes valeurs de M
On constate que les termes d'interférences ont été éliminés, mais on ne peut pas approximer
précisément les modulations non-linéaires, à cause de la forme linéaire des fonctions de base qui ne
permet pas une approximation fidèle d'une forme non-linéaire.
Dans ce paragraphe on va tout d'abord étudier l'effet de l'atténuation du signal sur les degrés
de conservation des supports temporel et fréquentiel.
Comme signal de test on utilise un chirp atténué temporellement. La fonction d’atténuation
est définie par la relation suivante :
g ( t ) = e − at (7.28)
où a est le facteur d’atténuation. Pour différentes valeurs de a, les indicateurs DTSC et DFSC (voir la
section 6.4) sont calculés. Les résultats obtenus sont présentés sur la figure 7.15. Les valeurs de
DTSC et DFSC pour a=0 (chirp non atténué) montrent une bonne mesure liée à la qualité des
transformations, concernant la conservation des supports temporel et fréquentiel. Ces résultats sont
présentés dans le tableau 7.1.
DTSC
a
Support fréquentiel en fonction de a
DFSC
a
Figure 7.15. DTSC et DFSC en fonction du facteur d’atténuation a pour les quatre approches:
DAC4, PWVL, DWVM et NGA
2. Sur le plan de la conservation du support fréquentiel (paramètre DFSC) les résultats sont
similaires. Le deuxième graphique de la figure 7.16, montre la supériorité de RTF-DAC4 par rapport
aux autres méthodes.
Pour des valeurs du coefficient d’atténuation supérieures à 0.4, DFSC n’apporte aucune
information, puisque le signal initial tend vers une impulsion qui occupe tout le support fréquentiel.
Les tests présentés dans la suite de ce paragraphe permettent de qualifier le décalage temporel
minimal entre deux signaux chirp pour lequel on pourra continuer à les distinguer. On utilise deux
chirps avec un décalage t 0 ∈ [1; 30] échantillons. Pour chaque valeur de t 0 , on applique les quatre
distributions T-F et on évalue le paramètre DTSC (la procédure de mesure est présentée
schématiquement sur la figure suivante).
t0 t
Figure 7.16. La procédure de mesure de SSCR pour les chirp décalés temporellement
Les résultats obtenus sont reportés dans le tableau 7.2; la valeur idéale de SSCR vaut 1.
Tableau 7.2. : SSCR en fonction de t 0
t0 SSCR
PWVD DWVM NGA RTF-DAC4
24 4 1 1 1
17 3 1 1 1
16 3 1 1 1
15 2.5 1.5 1 1
14 2.5 3 1 1
13 2 2 1 1
12 2 2.5 0.5 1
11 2 4 0.5 1
10 2 2 0.5 1
9 2 2 0.5 1
8 2 2.5 0.5 1
7 2 4 0.5 0.5
6 2 0.5 0.5 0.5
2 2 0.5 0.5 0.5
1 2 0.5 0.5 0.5
Fréquence Interferences
parasites
Chirp1
D
Chirp2
Temps
Figure 7.17. Apparition des termes d’interférence parasites pour DWMD
Fréquence (normalisée)
Doppler
Temps Retard
DWVM: eps=0.3,D=16 DAC4 - M=2 éléments
Fréquence (normalisée)
Fréquence (normalisée)
Temps Temps
Figure 7.18. Décalage temporel: comparaison entre MWVD et DAC4
Comme il est démontré en [11], les termes d’interférence entre les fonctions de base qui
appartiennent au même sous-espace sont des termes utiles. Pour les retenir on a introduit un seuil de
distance, D. Dans le cas où les atomes sont très proches l’un de l’autre on a des termes qui
appartiennent aux différents sous-espaces et une distance plus petite que le seuil D. Par conséquent,
on aura des termes d’interférence qui nuisent aux performances de DWVM. Le fonctionnement de
NGA est limité par la capacité du noyau à s’adapter à la structure du signal dans le plan des
ambiguïtés. La figure 7.19 montre que le noyau gaussien ne peut pas mettre en évidence les deux
chirps. Mais, par rapport aux DWVM et PWVL, NGA fonctionne jusqu’à un décalage de 13
échantillons. Ce graphique illustre la supériorité de RTF-DAC4 en ce qui concerne la conservation
de la structure du signal, quand il s’agit de chirps décalés en temps.
RTF idéale Fonction d'ambiguïté
Fréquence (normalisée)
Doppler
Temps Retard
Noyau Gaussien Adaptatif: alpha=3 DAC4 - M=2 elements
Fréquence (normalisée)
Fréquence (normalisée)
Temps Temps
Figure 7.19. Décalage temporel: comparaison entre NGA et DAC4
générées. Une étude comparative des performances de ces méthodes par rapport aux outils classiques
(distribution de pseudo Wigner-Ville lissée) et ayant comme critère d'évaluation le degré de
conservation du support temporel et, aussi, la lisibilité de l'image obtenue a été critiquée.
Les deux outils présentées (DWVM et DAC4) ont un haut degré d'adaptation aux structures
temps-fréquence du signal, en raison de la famille de fonctions de base, déterminée d'une manière
optimale, soit par une décomposition en paquets d'ondelettes, soit par l'algorithme Matching Pursuit.
Quel que soit l'algorithme de décomposition, la famille obtenue est complète, et nous assure l'unicité
des caractéristiques du signal. Pour la classification, on utilisera alors cet ensemble de fonctions et les
caractéristiques discriminantes seront extraites à partir des paramètres des fonctions de base.
Néanmoins, ces méthodes présentent quelques limitations et l'élimination de celles-ci fera
l'objet de travaux ultérieurs. Ainsi, la DWVM a deux grandes limitations : le choix des paramètres ε
et D et la capacité de l'ensemble des fonctions ondelette de mettre en évidence précisément les
caractéristiques du signal analysé. Pour éliminer le premier inconvénient, deux méthodes ont été
envisagées:
− L'utilisation du concept des termes d'interférence utiles, décrit en [11]. Selon ce concept, on
évaluera les termes d'interférence seulement pour les fonctions qui appartiennent au même sous-
espace, surmontant ainsi le problème du choix de D. Pour le choix de ε une idée consiste à
appliquer un seuil spécifique pour chaque sous-espace, mais la stratégie optimale de seuillage
sera définie dans les travaux futurs;
− L'utilisation de la TOS pour avoir une information sur la proximité des atomes dans le plan
temps-fréquence. A partir de cette information, on peut calculer l'ensemble des paramètres ε et D.
Le deuxième inconvénient peut être atténué par l'introduction de quelques paramètres
supplémentaires dans la structure des fonctions de base utilisées. En fait, par l'introduction du taux de
modulation linéaire, par exemple, on pourra davantage adapter l'ensemble des fonctions pour l'étude
des modulations linéaires. Ensuite, par l'utilisation des opérateurs "warping", on pourra accroître la
capacité de la transformée à s'adapter à n'importe quelle modulation traitée. Cette idée demeure
valable pour DAC4 dans l'esprit d'enrichir l'ensemble des fonctions de base dans lequel on effectue la
recherche de la meilleure combinaison. De plus, pour ôter l'inconvénient lié au choix de la dimension
de l'espace de recherche (M), mis en évidence sur la figure 13, on étudiera la possibilité de remplacer
l'algorithme "Matching Pursuit" par un autre, plus performant, comme Basic Pursuit ou l'algorithme
pyramidal de Mallat.
Références
[1] S. Qian, D. Chen – “Joint Time-Frequency Analysis ” , Pretince Hall, New Jersey, 1998
[2] P. Flandrin – "Représentations temps-fréquence” , Ed. Hermes, Paris, 1993
[3] A. Quinquis, C. Ioana - “Suppression of Wigner interference-terms using extended libraries of bases”, Military
Technical Academy Scientific Communications Session, Bucharest, Oct., 1999
[4] L. Atlas, J. Droppo, and J. McLaughlin, "Optimizing Time-Frequency Distributions for Automatic Classification,"
Proceedings of SPIE – The International Society for Optical Engineering, Vol. 3162, CA, pp. 161-171, San Diego, July,
1997.
[5] D.L. Jones and R.G. Baraniuk, “A simple scheme for adapting time-frequency representations”, IEEE Trans. Signal
Processing, Dec. 1994
[6] S. Mallat, Z. Zhang – “Matching pursuit with time-frequency dictionaries”, IEEE Trans. Signal Processing, vol.41,
no.12, PP. 3397-3415, Dec., 1993
[7] I. Cohen, “Shift-Invariant Adaptive Wavelet Decomposition and Applications”, Research Thesis, Israel Institute of
Technology, 1998
[8] A. Theolis – “Computational Signal Processing with Wavelet ”, Birkhauser Press, Boston, 1998
[9] Steve Mann, Simon Haykin – “The Chirplet Transform : A Generalisation of Gabor’s logon”, Canadian Image
Processing and Patern Recognition Society, Oct. 1991
[10] Aykut Bultan - “A Four-Parameter Atomic Decomposition of Chirplets”, IEEE Transaction on Signal Processing,,
March 1999
[11] C. Ioana, A. Quinquis - “On The Signal Interference Structure Generated by Modified Wigner-Ville Distribution”,
Paper accepted at ICASSP 2002 Conf, Orlando, Florida, May, 2002
ANNEXE 1
→ Une action
Notations
Pour présenter l’algorithme de décomposition en paquets d’ondelettes il faut introduire
quelques notations, qui seront corrélées aux éléments spécifiques des paquets d’ondelettes.
− N - la longueur du signal;
− L - le niveau maximal de décomposition: L≤log2 (N);
− h,g - les coefficients des filtres utilisés
− l - le niveau courant de décomposition;
− n - la localisation dans un certain niveau; n=0,...,2l-1;
− Il,n - l’intervalle de définition pour le sous-espace au niveau l, dans la localisation n;
[ ]
N N
I l, n = n l + 1, (n + 1) l
2 2
− PO - la matrice de dimension LxN qui contient la décomposition en paquets d’ondelettes;
− k - l’index donné par: k=2l + n, c’est-à-dire que cet indice permet de parcourir l’arbre en ordre.
− Coût - le vecteur qui contient les valeurs d’entropie au sens de Shannon à chaque localisation. La
dimension du vecteur est 2l+1 -1.
− MB - le vecteur qui contient les valeurs booléens ‘’mark’’. Cette valeur montrera si le sous-espace
correspondant est retenu (mark=0) ou non (mark=1).
Organigramme d’opérateur
d’analyse DEBUT
Sous-espace f défini
hi gi
sur Il,n
Filtrage Filtrage
Convolution passe-bas Convolution
passe-haut
Décimation Décimation
Approximation de f Détail de f
FIN
Les opérations sont celles décrites dans le sous-chapitre V.2.3: convolution entre les
coefficients h (g) et les coefficients situés à la position (l,n) dans l’arbre de décomposition et la
décimation, qui de point de vue informatique, peut être réalisée de la manière suivante:
Après avoir ces deux opérations, on obtient deux vecteurs de longueur N/2 qui sont mémorisé
dans la matrice PO aux positions Il+1,2n et Il+1,2n+1 . Maintenant, on élabore l’organigramme pour la
décomposition, à partir de l’algorithme pyramidal. Celui-ci est un algorithme récursif, donc on aura
besoin d’une fonction récursive (la plus utilisée est ‘’for’’).
ENSIETA, Janvier 2002 172
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
ANNEXE 1. Implémentation des décomposition en paquets d'ondelettes
Organigramme d’algorithme
pyramidal de décomposition
DEBUT
N-niveau de
Signal f avec une hhii gi
décomposition
longueur L
Initialisation de la matrice
PO: chaque POl,n =0
N Dim(PO)=LxN
PO0,: =f;
n=n+1
PO(Il,n )
OUI
NON l
if n!=2 -1
l=l+1
OUI
N if l !=N
NON
Sortie: la matrice contenant
les coefficients de la
Résultat décomposition
FIN
Commentaires
II. On compare la valeur de l’entropie du nœud père (Coût père) à la somme (Coût enfants) des entropies
des nœuds enfants. Si Coût père<Coûtenfants, mark=0 et les coefficients de la décomposition qui
correspondent au nœud père seront retenus dans la meilleure base. Sinon, mark=0.
Pour évaluer l’entropie au sens Shannon de (voir le sous-chapitre 5.4.3) de chaque
sous-espace on peut suivre l’algorithme décrit par l’organigramme présentée sur la figure suivante
Organigramme pour le Evaluation de l’entropie de PO(Il,n) k=2l+n
calcul de l’entropie DEBUT N
( n +1 )
2l
$ (k ) = − ∑
2 2
Cout POl , n ( j ) log POl , n ( j )
N
Initialisation j =n +1
Matrice PO qui contient la 2l
l=0;n=0 décomposition
PO(Il,n ) n=n+1
OUI
NON l
if n!=2 -1
l=l+1
(l,n) OUI
if l !=N
NON
On envoie le vecteur Coût Coût(k)
Coût Ecrit dans le
vers l’algorithme de choix
de la meilleure base vecteur Coût
FIN
Comme on peut voir sur cet organigramme, de point de vue informatique, pour choisir la
meilleure base on suite l’algorithme suivant:
* On introduit comme variable d’entrée le vecteur Coût qui contient les valeurs de l’entropie
de chaque localisation issue par la décomposition (toutes les approximations et les détails du signal).
* On définit le vecteur MB qui contiendra les valeurs booléennes mark(k); une telle valeur
montre si les coefficients correspondants à la localisation (l,n) appartiennent ou pas à la meilleure
base. MB est initialisé à zéro.
* On introduit et initialise un vecteur local ‘’Val’’ qui contient les valeurs de coût qui résulte
par l’application de la méthode pour sélectionner la meilleure base.
* On développe l’algorithme récursif:
- on aura une boucle ‘’FOR’’ en fonction de l - le niveau de décomposition; et une
autre en fonction de n - l’atome (le nœud) numéro ‘’n’’ sur le niveau l.
- à chaque itération on compare le Coût père et le Coût enfants; en fonction du résultat de
cette comparaison, on évalue:
Val(2l+n)=Coût père; mark(2l+n)=0, si Coûtpère<Coûtenfants.
En fait, par cette opération, on a retenu les coefficients correspondant au nœud père, qui sont
caractérisés par une entropie plus petite que l’entropie des coefficients qui correspondent aux nœuds
enfants.
Sinon, on met Val(2l+n)=Coût enfants; mark(2l+n)=1.
La valeur ‘’Val(2l+n)’’ sera nécessaire pour l'itération suivante (plus précisément, pour
calculer le Coût enfant).
* A la sortie, on obtient les valeurs de ‘’mark’’ qui se trouvent dans le vecteur MB; les valeurs
0 correspondent aux nœuds qui pointent vers les coefficients de la meilleure base. La sortie est
validée quand la boucle principale (en fonction de l) est finie (la branche NON).
ENSIETA, Janvier 2002 174
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
ANNEXE 1. Implémentation des décomposition en paquets d'ondelettes
Organigramme
La sélection de la
meilleure base DEBUT
NON if l !=N
OUI
l=l+1
OUI
n=n+1
Calcul de:
-Coût père=Cout(2l+n) Coût(2l+n)
-Coût enfants=Val(2l+1+2n)+
+Val(2l+1+2n+1)
NON OUI
if Coût père <Coûtenfants
Sortie
La meilleure
base
FIN
sous-chapitre 5.4.4, l’algorithme de reconstruction est aussi pyramidal mais il faut partir du dernier
niveau de décomposition en ne tenant compte que des coefficients de la meilleure base. Dans ce sens
on a introduit l’opérateur de synthèse qui répète les opérations de la fonction d’analyse. Dans
l’organigramme suivant on montre quelle est la forme de l’opérateur de synthèse, du point de vue
informatique. On définit l’opérateur d’interpolation:
Organigramme de l’opérateur
de synthèse DEBUT
Coefficients du Coefficients du
hi nœud (l+1,2n) nœud (l+1,2n+1)
gi
Interpolation Interpolation
Convolution Convolution
Coefficients du
nœud (l,n)
FIN
Pour la reconstruction, on applique cet opérateur pour tous les coefficients de la meilleure
base, à partir du dernier niveau de décomposition. Donc, l’algorithme sera récursif, mais la boucle en
fonction de l commencera de l=N-1.
Commentaires
Les données d’entrée sont: la matrice de décomposition PO et le vecteur MB qui est issu de
l’algorithme de sélection de la meilleure base. Ensuite, on introduit une fonction de type
INPUT/OUTPUT qui permet de modifier les valeurs de la PO en concordance avec les modifications
qui apparaîtront dues à l’opérateur de synthèse. A chaque itération on teste si la valeur MB du nœud
(l,n) est 1. C’est-à-dire on teste si le nœud est terminal ou pas. Si MB(2l+n)=1 le nœud est non
ENSIETA, Janvier 2002 176
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
ANNEXE 1. Implémentation des décomposition en paquets d'ondelettes
terminal, donc on applique l’opérateur de synthèse pour ses nœuds enfants. Sinon, on passe au nœud
immédiatement suivant, dans le même niveau de décomposition.
Comme on a déjà remarqué, l’algorithme commence au niveau N-1 et la procédure présentée
nous assure que les nœuds traités sont ceux de la meilleure base. Quand l=0, n sera aussi 0, et ceci
correspond à la première ligne de la matrice qui ne sera que le signal reconstruit.
Organigramme
d’algorithme pyramidal de
synthèse DEBUT
Initialisation
l=N-1; Matrice POl,n Vecteur MB
n=0
Ecrit/Lire dans/de la
matrice PO
l n
NON if l !=0
OUII
l=l-1
NON
if n!=2 l-1
OUII
n=n+1
NON OUII
if MB(2l+n)=1
PO(Il+1,2n ) PO(I l+1,2n+1 )
Opérateur de synthèse
PO(I0,0)
PO(Il,n )
Signal reconstruit
FIN
La décimation
Pour pouvoir utiliser les fonctions qui ont été définies pour les paquets d’ondelettes, (donc
pour être compatible avec l’environnement Wavelab) et pour faire un sous-échantillonage adaptatif,
on utilise la séquence initiale et la séquence décalée d’une position et on applique la même procédure
que pour la décimation classique pour les deux séquences. En fait, on fait ce que nous avons présenté,
parce que par décalage circulaire d’une position, les termes qui étaient impairs deviennent les termes
paires. On montre ceci sur l’exemple suivant:
Soit x=[2 3 1 4 3 4 2 1] . Les termes pairs sont {3,4,4,1} et les termes impairs sont {2,1,3,2}.
Par la décimation classique utilisée pour les paquets d’ondelettes classique on obtient:
Dimpaires=[2 1 3 2].
Si on fait un décalage circulaire d’une position vers la droite; on obtiendra
xdécalé=[1 2 3 1 4 3 4 2] ; ici, les termes pairs sont {2,1,3,2} et les termes impairs sont {1,3,4,4}. On a
obtenu les termes impairs (pairs) qui, pour la séquence initiale étaient les termes paires(impaires),
mais l’ordre n’est pas le même.
Finalement, si on applique la même fonction de décimation, on choisit les termes paires du
signal initial. On obtiendra:
Dpaires=[1,3,4,4].
Remarque
Soit x un certain signal. On appellera le décalage circulaire de x d’une position la version
décalée de x.
Sous-échantillonage adaptatif
Soit (C k) k=0,..,N le signal issu par filtrage passe-bas(passe-haut). Soit
(Dk) le signal résulté de la décimation adaptative.
On note Ck’ la version décalée de Ck.
Si Entropie(C’2k-1 )<Entropie(C2k-1 ), k=1,...,N/2
Dk=C’2k-1 → on a choisi les termes pairs
Sinon
Dk=C2k-1 → on a choisi les termes impairs
Dans le sous-chapitre 5.5., pour obtenir l’invariance en temps, on a introduit un nouveau degré
de liberté qui modifie la localisation en temps des fonctions de base. La décomposition en paquets
d’ondelettes classique décompose, à chaque niveau, chacune des nœud en deux nœuds enfants: le
nœud enfant gauche représente la version filtrée passe-bas et décimée, par la délection des termes
impaires du nœud père, et le nœud enfant droit représente la version filtrée passe-haut et décimée de
la même façon. Dans le cas de la décomposition invariante en temps on fait la même décomposition,
mais on décompose également la version décalée du signal qui correspond au nœud père. Ensuite, on
applique la procédure de sous-échantillonage adaptatif.
L’algorithme d’analyse sera toujours pyramidal, mais l’opérateur d’analyse ‘’A’’ sera
diffèrent : cette fois-ci il s'agit d'un sous-échantillonage adaptatif.
A x
↓2
↓2 ↓2
↓2 ↓2
↓2 ↓2
↓2
x dh x dg xg
xh
Entropie(xh ) Entropie(xdh ) Entropie(xdg ) Entropie(xg )
+
+ EN d
Comparaison
Si ENd >EN → r=0
Validation ENd Validation
Si ENd <EN → r=1
si r=1 r si r=0
OU
xdh xdg xh xg
Opérateur d’analyse (A)
signal original
A A
A A A A
Figure 6.3. L’algorithme pyramidal de décomposition en paquets d’ondelettes
invariante en temps
L’opérateur d’analyse implémente la procédure suivante:
1. On décale le signal x d’une position et on obtient x d .
ENSIETA, Janvier 2002 179
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
ANNEXE 1. Implémentation des décomposition en paquets d'ondelettes
On peut observer que l’opérateur d’analyse est plus compliqué que l’opérateur d’analyse
classique. L’implémentation de cet opérateur permet l’optimisation du logiciel qui sera développé.
Dans l’algorithme précèdent on a introduit l’indice ‘’r’’ qu’on va l'appeller ‘’l’indice
d’invariance relatif’’ et qui est défini de la manière suivante :
- si on a choisi les termes pairs: r=1
- sinon, r=0.
A la reconstruction, on utilise les coefficients dans la meilleure base et les indices r
correspondant.
Les notations nécessaires pour élaborer les organigramme spécifiques à la décomposition
invariante en temps sont les mêmes que celles utilisées pour décrire la décomposition en paquets
d’ondelettes classique. On a en plus besoin des notations suivantes:
- af - l’approximation du signal f;
- df - le détail du signal f;
- fd - la version décalée circulairement de f;
- fh - la version du signal f filtrée passe-bas et puis décimée par la sélection des termes impaires;
- fg - la version du signal f filtrée passe-haut et puis décimée par la sélection des termes impaires;
- fhd - la version du signal fd filtrée passe-bas et décimée de la même manière;
- fgd - la version du signal fd filtrée passe-haut et décimée de la même manière;
- ent(x) - l’entropie du signal x, où x peut être: fh, fg, fhd, fgd.
- r - l’indice d’invariance relatif correspondant à chaque sous-espace du signal;
En conséquent, l’opérateur d’analyse, du point de vue informatique, présenté ci-dessus,
réalise, par rapport à l’opérateur classique, plusieurs fonctions:
→ le calcul de l’entropie pour chaque sous-espace du signal (ent(af) et ent(df)), les
valeurs qui seront utilisées pour sélectionner la meilleure base.
→ on génère les valeurs des indices d’invariance relatifs, qui seront utilisés pour la
reconstruction;
→ on ne retient que les coefficients filtrés passe-bas et passe-haut qui ont, ensemble,
une entropie minimale. On applique cet opérateur récursivement, et on voit que l’entropie des
coefficients dans la meilleure base est minimale et constante sans tenir compte de la position
temporelle du signal. Il n’est pas nécessaire de retenir toute la librairie étendue d’ondelettes; donc, on
peut utiliser la même matrice que pour la décomposition classique.
L'inconvénient de la décomposition en paquets d’ondelettes invariante en temps est que le
temps de calcul est plus important que celui de la décomposition classique, à cause du test du
décalage. Mais le fait qu’il n’est pas nécessaire de retenir toute la libraire étendue et le fait qu'on peut
calculer encore dans cette phase les valeurs de l’entropie nous permettent d’optimiser le code.
Organigramme de l’opérateur
d’analyse
pour la décomposition
DEBUT
invariante en temps
Sous-espace f défini
hi gi
sur Il,n
Décalage circulaire
fd[n]=f[n-1]
fd
Convolution Convolution Convolution Convolution
fh fhd fgd fg
Calcul Calcul Calcul Calcul
Ent(fh) Ent(fhd) Ent(fgd) Ent(fg)
ENd=Ent(fhd)+Ent(fgd)
Ent - entropie évaluée par
la relation ci-dessus
EN=Ent(fh)+Ent(fg)
Ent - entropie évaluée par
la relation ci-dessus
∆E=EN-EN d
OUI NON
Si ∆E<0
Organigramme d’algorithme
pyramidal de décomposition
invariante en temps
DEBUT
N-niveau de
décomposition Signal f de longeur L hhi i gi
Initialisation de la matrice
N PO: chaque POl,n =0
Dim(PO)=LxN
PO0,: =f;
n=n+1
PO(Il,n )
OUI
NON
if n!=2 l-1
(l,n)
l=l+1
OUI
N if l !=N
l+1 l+1
Coût(2 +2n)=EN(POl+1,2n ) r(2 +2n)=r(POl+1,2n)
NON l+1
Coût(2 +2n+1)=EN(POl+1,2n+1 )
l+1
r(2 +2n+1)=r(POl+1,2n+1 )
La matrice
PO
FIN
L’algorithme pour la sélection de la meilleure base sera le même comme celui dans le cas de
décomposition en paquets d’ondelettes classique, puisqu’on a retenu, dans la phase de décomposition,
les sous-espaces du signal qui présentent les plus petites valeurs de l’entropie. On nous garantit que la
meilleure base trouvée sera invariante en temps.
Après le traitement souhaité, on peut faire la reconstruction. L’algorithme de synthèse
ressemble à l’algorithme de synthèse classique, mais, l’opérateur de synthèse sera différent parce
qu’il doit tenir compte des indices d’invariance relatifs. Donc, l’algorithme de synthèse sera:
S x
K1 K3
+
K2 K4
-D -D
H’(z) G’(z)
↓2 ↓2
↑2 Si r(ax)=r(dx)=0 →K1, K3 -fermés ↑2
K2, K4 -ouverts
Si r(ax)=r(dx)=1 →K1, K3 -ouverts
K2, K4-fermés
ax dx
r(ax)=r(dx)
Signal original
reconstruit
S
S S
S S
add ddd
aaa daa
Pour illustrer l’algorithme de synthèse, on prend le même exemple que celui utilisé pour
montrer l’algorithme de synthèse classique.. On peut voir que l’opérateur de synthèse utilise quatre
commutateurs qui sont commandés par la valeur du r:
− si r=0, les commutateurs K1 et K3 sont fermés (K 2 et K4 sont ouverts). r=0, c’est-à-dire
que ax (l’approximation du x) et dx (le détail du x) sont obtenus en appliquant l’opérateur
d’analyse invariante en temps sur le signal x.
ENSIETA, Janvier 2002 183
Centre de Recherche "Extraction et Exploitation de l'Information en Environnements Incertains
ANNEXE 1. Implémentation des décomposition en paquets d'ondelettes
− si r=1, la situation est inversée est c’est-à-dire que ax et dx sont obtenus en appliquant le
même opérateur sur la version décalée vers la droite de x. C’est pour cela qu’il faut faire
un décalage inverse (vers la gauche), par l’opérateur ‘’-D’’.
L’organigramme pour l’opérateur de synthèse est donné sur la figure antérieure.
Organigramme d’opérateur de
synthèse pour la
décomposition invariante en
temps DEBUT
Interpolation Interpolation
OUI NON
if r=0
Convolution Convolution
a
a(i)=a(i) d(i)=d(i) d
Coefficients Coefficients
filtré passe-bas filtré passe-haute
a(i)=a(i+1) d(i)=d(i+1)
Somme
vectorielle
Coefficients du
noeud (l,n)
FIN
Organigramme d’algorithme
pyramidal de synthèse pour la
décomposition invariante en
temps DEBUT
Initialisation
l=N-1; Matrice POl,n Vecteur r Vecteur MB
n=0
Ecrit/Lecture dans/de la
matrice PO
l n
NON if l !=0
OUII
l=l-1
NON
if n!=2 l-1
OUII
n=n+1
NON OUII
if MB(2l+n)=1
PO(Il+1,2n ) PO(I l+1,2n+1 )
PO(Il,n )
Signal reconstruit
FIN
Observations