You are on page 1of 46

Systèmes hybrides

Adapté de Michael Negnevitsky


Comparaison de modèles
• Critères de comparaison
proposées par Negnevitsky (2002)
Caractéristique Description
Compréhensibilité des Facilité de compréhension des connaissances représentées
représentations
Tolérance à l’incertitude Robustesse face aux données manquantes
Tolérance à l’imprécision Robustesse face aux données imprécises

Adaptabilité Support pour de nouveaux types de données et de nouveaux


domaines
Capacité d’apprentissage Support pour l’apprentissage automatique des connaissances
Capacité de Support pour découvrir des connaissances parmi beaucoup
découverte/fouille de données
Capacité d’explication Support pour le traçage du raisonnement
Facilité de développement Simplicité et rapidité du développement
Maintenabilité Simplicité de la maintenance
Support de connaissances Support pour représenter des connaissances complexes
complexes

Adaptè de M. Negnèvistrsky et Benoit Lavoie.


Comparaison de modèles
• Approches et évaluations possibles
Décrtis par Negnevitsky (2002)

Types d’approches
SE: système expert RN: réseau de neurones artificiels
LC: logique classique AG: algorithme génétique
LF: logique floue RB: réseau bayésien
AD: arbres de décisions
ON: ontologies
SC: schémas
BC: système à base de cas

Évaluation
- -: mauvais +/- : variable selon variantes
- : plutôt mauvais
+: plutôt bon
++: bon
Adaptè de M. Negnèvistrsky et Benoit Lavoie.
Comparaison de modèles
• Avantages et limites de chaque approche …
évaluation proposée par Approches Approches
Negnevitsky symboliques sous-
symboliques
Caractéristiques SE LC LF AD ON SC BC RN AG RB
Compréhensibilité des + ++ ++ ++ ++ + + -- - -
Représentations
Tolérance à l’incertitude + ++ ++ + + + + ++ ++ ++
Tolérance à l’imprécision +/- -- ++ + - - + ++ ++ +
Adaptabilité -- - - + - -- +/- ++ ++ +
Capacité d’apprentissage -- -- -- ++ +/- -- + ++ ++ ++
Capacité de découverte/fouille -- - - +/- + - -- ++ + +/-
Capacité d’explication ++ ++ ++ + + + + -- - +
Facilité de développement -- - - ++ - -- -- - - +
Maintenabilité -- + + ++ +/- - - ++ + +
Support de connaissances + + + - ++ ++ + -- -- --
complexes

Adaptè de M. Negnèvistrsky et Benoit Lavoie.


Comparaison de modèles
• Avantages et limites de chaque approche …
points forts démarquant les Approches Approches
approches symb. / sous-symb. symboliques sous-
symboliques
Caractéristiques SE LC LF AD ON SC BC RN AG RB
Compréhensibilité des + ++ ++ ++ ++ + + -- - -
Représentations
Tolérance à l’incertitude + ++ ++ + + + + ++ ++ ++
Tolérance à l’imprécision +/- -- ++ + - - + ++ ++ +
Adaptabilité -- - - + - -- +/- ++ ++ +
Capacité d’apprentissage -- -- -- ++ +/- -- + ++ ++ ++
Capacité de découverte/fouille -- - - +/- + - -- ++ + +/-
Capacité d’explication ++ ++ ++ + + + + -- - +
Facilité de développement -- - - ++ - -- -- - - +
Maintenabilité -- + + ++ +/- - - ++ + +
Support de connaissances + + + + ++ ++ + -- -- --
complexes

Adaptè de M. Negnèvistrsky et Benoit Lavoie.


Comparaison de modèles
• Évaluations globales
Approches Approches
Caractéristiques symboliques sous-symboliques
Compréhensibilité des Bonne ou plutôt bonne Plutôt mauvaise ou
représentations mauvaise

Tolérance à l’incertitude Plutôt bonne ou bonne Bonne


Tolérance à l’imprécision Variant de bonne (LF,AD) à mauvaise (LC) Bonne ou plutôt bonne
Adaptabilité Variant de mauvaise (SE, SC) à plutôt Bonne
bonne (AD, BC?)
Capacité d’apprentissage Variant de mauvaise (SE, LC, LF, SC) à Bonne
bonne (AD)
Capacité de Généralement mauvaise ou plutôt Plutôt bonne ou bonne
découverte/fouille mauvaise (exception: AD et ON plutôt (RB non spécifiée)
bonne)
Capacité d’explication Plutôt bonne ou bonne Variant de mauvaise
(RN) à plutôt bonne (RB)
Facilité de développement Généralement mauvaise ou plutôt Plutôt mauvaise (RN,AG)
mauvaise (exception: AD bonne) ou bonne (RB)
Maintenabilité Variant de bonne (AD) à mauvaise (SE) Plutôt bonne ou bonne
Support de connaissances Généralement bonne ou plutôt bonne Mauvaise
complexes (exception: AD plutôt mauvaise)

Adaptè de M. Negnèvistrsky et Benoit Lavoie.


Les systèmes hybrides
 Exploitent les avantages respectifs de plusieurs
paradigmes en combinant leurs algorithmes
suivant une approche synergétique.
 Exemples de modèles pouvant être combinés :
 Systèmes experts  Techniques statistiques
 Raisonnement à base de cas  Systèmes à logique floue
 Arbres de décision  Algorithmes de groupement
 Algorithmes et programmation  Vie artificielle
génétique  Techniques de simulation
 Réseaux de neurones  …
 Techniques de régression
Les systèmes hybrides ne sont pas tous égaux
 Un système hybride peut être bon ou mauvais, selon le
choix et les rôles de ses composantes
 Lotfi Zadeh est réputé avoir dit qu’un bon système
hybride combine les qualité de la police britannique, de
la mécanique allemande, de la cuisine française, du
système bancaire suisse, et de l’amour italien.
 Par contre, la cuisine britannique, la police française, la
mécanique suisse, l’amour allemand et les finances
italiennes seraient un mauvais choix !
 Hybridations populaires
 Systèmes experts neuronaux
 Systèmes neuro-flous, neuro-génétiques, flous-génétiques
 On peut aussi sauter du bateau : neuro-HMM, HMM-flou,
neuro-bayesien…
Types d’hybridation
 Modèles séquentiels
 Entrée  Paradigme 1  Paradigme 2  sortie
 Ex. : un module statistique passe ses résultats à un RNA.
 Forme la plus faible d’hybridation
 Modèles à auxiliaire
 Entrée  Paradigme 1  Sortie

Paradigme 2 (appelé par 1)
 Ex. : AG qui règlant les poids d’un RNA.
 Forme d’hybridation plus poussée
 Modèles imbriqués
 Entrée  Paradigme 1 + Paradigme 2  sortie
 Ex. : un système neuro-flou où le RNA est imbriqué dans le
système flou.
 Forme absolue d’hybridation
 Les modèles peuvent être combinés pour créer des
paradigmes plus complexes.
Systèmes experts connexionistes
 Les systèmes experts reposent sur l’inférence logique et les
arbres de décision pour modeler le raisonnement humain ; le
savoir réside dans des règles individuelles qui sont visibles et
compréhensibles pour l’usager. Le problème est de les trouver
et de s’assurer de leur généralité s’application.
 Les réseaux de neurones modèlent le cerveau lui-même par
une architecture parallèle de traitement de l’information ; le
savoir est distribué et réside dans des poids synaptiques que
l’on sait calculer. Le problème est d’expliquer le processus
cognitif sous jacent.
 Pourquoi ne pas compenser les faiblesses de l’un par les
qualités de l’autres ?
Le raisonnement approximatif

 Dans un système expert classique, le moteur d’inférence


applique l’antécédent de chaque règle aux données de sa
base de connaissances. Lorsqu’il y a appariement, le
conséquent est exécuté. L’appariement doit être exact.
 Dans un système expert connexionniste, le moteur d’inférence
utilise une base de connaissances neuronale pour arriver à un
appariement approximatif
 Le résultat est que les données d’entrée n’ont plus à
correspondre exactement aux données d’apprentissage pour
que les règles soient activées, d’où un raisonnement
approximatif.
Structure d’un système expert connexionniste
Données d’apprentissage

Base de connaissances neuronale Extraction de règles


Données
d’entrée Règle: IF - THEN

Moteur d’inférence

Facilités explicatives

Interface usager

Usager
La base de connaissances neuronale
Ailes
+1 -0.8
Règle 1 Oiseau
1.0
Queue -1.6 -0.7 +1
0 -0.2
-0.1
-1.1
Bec Règle 2 Avion
+1 2.2 1.0
0.0 1
-1.0
Plumes 2.8
+1 -1.6
-2.9 Règle 3 Aéroplaneur
-1.1 1.9 1.0 1
Moteur
1
-1.3

• Les poids déterminent la force/l’importance des neurones associés au règles


• Valeurs d’entrée = +1 (vrai), 1 (faux), or 0 (indéterminé),
 Avec les valeurs d’entrée +1 (vrai), 1 (faux), ou 0 (indéterminé), il
est possible de donner une interprétation sémantique à l’activation
de tout neurone de sortie.
 Ex. : Si l’objet d’entrée possède des ailes (+1), un bec (+1) et des
plumes (+1), mais pas de moteur (1), nous pouvons conclure q’il
s’agit d’un oiseau (+1) :
X Règle1  1  ( 0.8 )  0  ( 0.2 )  1  2.2  1  2.8  ( 1 )  ( 1.1 )  5.3  0
YRègle1  YOiseau  1
Nous pouvons conclure de manière similaire qu’il ne s’agit pas d’un
avion :
X Règle 2  1  ( 0.7 )  0  ( 0.1 )  1  0.0  1  ( 1.6 )  ( 1 )  1.9  4.2  0
YRègle 2  YAvion  1
Ou d’un aéroplane :
X Rule 3  1 (0.6)  0  (1.1)  1 (1.0)  1 (2.9)  (1)  (1.3)  4.2  0
YRègle 3  YAeroplaneur  1
• Importance de chaque lien synaptique
• Heuristique : inférence positive si l’activation d’un neurone de
sortie due aux entrées connues est plus importante que la
somme des valeurs absolues des poids rattachés aux entrées
inconnues :
n n
 xi wi   w j
i 1 j 1
i  entrées connues, j  entrées connues et n = nombre d’entrées
• Exemple :
Entrer la valeur de l’entrée Plumes :
 +1
CONNU = 12.8 = 2.8
UNCONNU = 0.8+0.2+2.2+1.1= 4.3  CONNU  INCONNU
Entrer la valeur de l’entrée Bec :
 +1
CONNU = 12.8 + 12.2 = 5.0
UNCONNU = 0.8+0.2+1.1= 2.1  CONNU  INCONNU
CONCLUSION: OISEAU est VRAI
Comment trouver les poids ?
• Il faut d’abord définir la topologie correspondante aux règles
• Ensuite on applique un algorithme d’apprentissage approprié
(e.g. retropropagation)
Rule 1: Rule 5:
IF a1 AND a3 THEN b1 (0.8) IF a5 THEN b3 (0.6)
Rule 2: Rule 6:
IF a1 AND a4 THEN b1 (0.2) IF b1 AND b3 THEN c1 (0.7)
Rule 3: Rule 7:
IF a2 AND a5 THEN b2 (-0.1) IF b2 THEN c1 (0.1)
Rule 4: Rule 8:
IF a3 AND a4 THEN b3 (0.9) IF b2 AND b3 THEN c2 (0.9)

Input Conjunction Disjunction Conjunction Disjunction


Layer Layer Layer Layer Layer
1.0
a1 R1 0.8
1.0

0.2 1.0
a2 1.0 R2 b1 R6 0.7

1.0 c1
0.1
-0.1 1.0
a3 1.0 R3 b2 R7
1.0
1.0 1.0 0.9
c2
1.0 0.9 1.0
a4 R4 b3 R8
1.0
1.0 0.6
a5 R5
Comment trouver les règles minimales ?
• Trouver et ordonner les poids contributeurs (ceux qui ne
diminuent pas le résultat)
• Identifier les antécédents en partant du poids le plus fort
Ailes
+1 -0.8
Règle 1 Oiseau
Plumes : 2.8 (1 2.8=2.8)
1.0
Queue -1.6 -0.7 +1
0 -0.2 Bec : 2.2 (1 2.2=2.2)
-0.1
Bec
-1.1
Règle 2 Avion Moteur : 1.1 (-1 -2.1=2.1)
+1 2.2
0.0
1.0 1 Queue : 0.2 (0 -0.2=0)
-1.0
Ailes : 0.8 (1 -0.8= - 0.8)
Plumes 2.8
+1 -1.6
-2.9 Règle 3 Aéroplaneur
-1.1 1.9 1.0 1
Moteur
1
-1.3

Entrer la valeur de l’entrée Plumes :


 +1 CONNU = 12.8 = 2.8 UNCONNU =0.8+0.2+2.2+1.1= 4.3
 CONNU  INCONNU
Entrer la valeur de l’entrée Bec :
 +1 CONNU = 12.8+12.2=5.0 UNCONNU=0.8+0.2+1.1=2.1 CONNU  INCONNU
CONCLUSION: SI plumes ET bec ALORS oiseau
Système neuro-flous
 Combine les traitement parallèle et les capacités d’apprentissage
des réseaux de neurones avec les raisonnement anthropo-
morphique et les capacités d’explication des systèmes flous : Les
RNA deviennent plus transparents, les systèmes flou acquièrent la
capacité d’apprendre.
 La topologie du RNA est fonctionnellement équivalente à celle
d’un modèle d’inférence flou, et on peut l’entraîner à :
 développer des règles floues SI-ALORS
 trouver les fonctions d’appartenance de variables d’entrées/sorties
en partant d’un ensemble de données représentatives.
 On peut aussi y inclure les connaissances d’un expert.
 Structure similaire à un PMC : 1 couche d’entrée, 1 couche de
sortie et 3 couches cachées pour les fonctions d’appartenance et
les règles.
Architecture d’un système neuro-flou
Couche 1 Couche 2 Couche 3 Couche 4 Couche 5
Entrée Flouïfication Conjonction Disjonction Déflouïfication
(sortie)
A1 A1 R1
x1 R1

x1 x1
A2  R2
x1 A2 R2
wR3 C1
C1
A3 A3 R3 R3 wR6
y
wR1 
B1 B1 R4 R4 wR2
x2 C2
wR4
C2
R5
x2 x2 B2 wR5
B2 R5
x2
R6
B3
B3 R6
Couche 1 : Agit comme un tampon qui transmet simplement les
données d’entrée à la couche de flouïfication. On a :
yi(1)  xi(1)
Couche 2 : Les neurones de cette couche réalisent chacun un
ensemble flou qui servira dans les antécédents des règles. Chaque
neurone reçoit une valeur d’entrée précise et génère son degré
d’appartenance à l’ensemble flou représenté par le neurone.
Dans le cas d’ensembles flous triangulaires, on peut utiliser des
fonctions d’appartenance de même forme qui sont définies par deux
paramètres {a, b} :

 
 b
if xi( 2)
a
1 1

0, 2
a = 4, b =6 a = 4.5, b =6 a = 4, b =6


0.8 0.8
a = 4, b =4
 2 xi( 2)  a

0.6 0.6
b b
yi( 2)  1  , if a   xi( 2)  a 
 b 2 2 0.4 0.4

 ( 2) b 0.2 0.2

 0, if xi  a 
2
 X X
0 0
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

(a) Effect of parameter a. (b) Effect of parameter b.


Couche 3 : Elle réalise les conjonctions des antécédents de règles
floues. Chaque neurone dans la couche reçoit comme entrée les
degrés d’appartenance définis dans la couche 2. L’intersection floue
est réalisée avec l’opérateur produit :

1   A1   B1   R1
(3)
yi(3)  x1(i3)  x2(3i )    xk(3i ) yR
Couche 4 : Elle réalise les disjonctions des antécédents de règles
floues. Chaque neurone dans cette couche reçoit comme entrée les
degrés d’appartenance définis dans la couche 3. L’union floue est
réalisé à l’aide de l’opérateur ou probabiliste :
(4)
yi( 4)  x1(i4)  x2( 4i )    xli( 4) yC1   R3   R6  C1
C1 représente la force combinée des conjonctions implémentées par
les neurones R3 et R6.
Couche 5 : Chaque neurone dans cette couche prend les ensembles
flous précédent, écrêtés par la force des règles correspondantes, et
les combine en un seul ensemble flou. Ce dernier est alors déflouïfié
par une méthode standard.
Entraînement d’un système neuro-flou
• On utilise un algorithme de RNA (e.g. retropropagation)
• Exemple :

0
1

0
0
Mise en oeuvre avec un système neuro-flou à 5 règles

S 1
1 wR1
x2 0.99 wR5
0.8
L 2 0
S y 0.6
wR4

Weight
wR3
3 0.72 
L 0.4
0.61
S 4
x2 0.2 wR2
0.79
L 5 0
0 10 20 30 40 50
Epoch

(a) Five-rule system. (b) Training for 50 epochs.

Noter que le système a seulement retenu 4 règles !


Inclusion de connaissance a priori

 L’inclusion de connaissances du domaine (e.g.


intervention d’un expert) peut améliorer
considérablement l’apprentissage, surtout lorsque les
données sont rares et peu représentatives.
 Cependant, un expert peut se tromper, ou encore fournir
des règles redondantes !
 Le système devrait être capable d’identifier les
mauvaises règles et corriger la situation.
 Exemple du ou-exclusif
 Un expert distrait suggère 8 règles avec des poids initiaux de 0.5
pour les couches 3 et 4.
 Après l’apprentissage, on élimine les règles dont le poids de
sortie (facteur de certitude) est < 0.1.
Solution du problème du ou-exclusif avec 8 règles

0.8
S 1 0 wR2 wR8
x1 2
0.7
0.78
3
0.6 wR3 wR5
L 0.69 S
0.5
4 y
0
0.62
 0.4
5
0.3 wR6 & wR7
S 6 0 L
0 0.2
x2 wR1
7 0.1
0.80 wR4
L 8 0
0 10 20 30 40 50
Epoch

(a) Eight-rule system. (b) Training for 50 epochs.

Comme seulement 4 règles sont requises normalement, le système élimine


les règles excédentaires.
ANFIS: Adaptive Neuro-Fuzzy Inference System

 Modèle de génération automatique de règles floues basé


sur le modèle d’inférence de Sugeno :
IF x1 is A1 AND x2 is A2 . . . AND xm is Am
THEN y = f (x1, x2, . . . , xm)
où x1, x2, . . . , xm sont des variables d’entrée et A1, A2, . . . ,
Am sont des ensembles flous.
 Lorsque :
 y= constante, on obtient un modèle de Sugeno d’ordre zéro. Le
conséquent d’une règle est un singleton.
 y est une combinaison linéaire des entrées :
y = k0 + k1 x1 + k2 x 2 + . . . + km xm
on obtient un modèle de Sugeno de premier ordre.
Architecture du réseau ANFIS
Couche 1 Couche 2 Couche 3 Couche 4 Couche 5 Couche 6
Entrée Flouïfication Règles floues Normalisation Déflouïfication Sommation
x1 x2 (sortie)

A1 1 N1 1
x1

A2 2 N2 2
y

B1 3 N3 3
x2

B2 4 N4 4
Couche 1 : Tampon pour les données d’entrée
Couche 2 : Neurones de flouïfication pour les
antécédents des règles. Dans le modèle de Jang, les
fonctions d’appartenance sont des gaussiennes.
Couche 3 : Chaque neurone correspond à une règle floue
de Sugeno. il reçoit les sorties des neurones de
flouïfication et calcule son activation. La conjonction
des antécédents est réalisée avec l’opérateur produit.
Ainsi, la sortie du neurone i de la couche 3 est donnée
par
k
yi(3)   x (ji3) y(3) = A1  B1 = 1,
et 1
j 1
où 1 represente le degré de vérité de Règle 1.
Couche 4 : Chaque neurone calcule le degré de vérité
normalisé d’une règle floue donnée. La valeur obtenue
représente la contribution de la règle floue au résultat
final. Ainsi la sortie du neurone i de la couche 4 est :
xii( 4) i ( 4) 1
yi( 4)    i yN 1   1
n n 1   2  3   4
 jix ( 4)
 j
j 1 j 1

Couche 5 : Chaque neurone i de cette couche est relié à


un neurone de normalisation correspondant et aux
entrées initiales du réseau. Il calcule le conséquent
pondéré de la règle sous jacente comme étant
yi(5)  xi(5) ki 0  ki1 x1  ki 2 x 2  i ki 0  ki1 x1  ki 2 x 2
où les Xi sont les entrées, et ki0, ki1 et ki2 sont des
paramètres du conséquent de la règle i.
Couche 6 : Comprend un seul neurone qui fournit la sortie
de ANFIS en calculant la somme des sorties de tous les
neurones de déflouïfication.
n n
y   xi(6)   i ki 0  ki1 x1  ki 2 x 2
i 1 i 1
Entraînement d’un réseau ANFIS
 Algorithme à deux temps où on estime d’abord les
paramètres des conséquents par une technique de
moindres carrés et ensuite les poids du réseau par une
descente de gradient.
 Chaque époque d’entraînement comprend une passe avant
et une passe arrière. Durant la passe avant, les patrons
d’entrée servent à déterminer les sorties des neurones
couche par couche, permettant de déterminer les valeurs
des paramètres de conséquents en bout de compte.
 Durant la passe arrière, l’algorithme de retropropagation
d’erreur est appliqué pour régler les poids des différentes
couches.
Détermination des paramètres des conséquents
 Partant de P paires d’apprentissage, on peut former P
équations linéaires en fonction des paramètres des
conséquents :
 yd (1)  (1) f(1)  (1) f(1)    n(1) fn(1)

 yd (2)  (2) f(2)  (2) f(2)    n(2) fn(2)

 
 yd (p)  (p) f(p)  (p) f(p)    n(p) fn(p)

 
 y (P)   (P) f (P)   (P) f (P) 
 d       n(P) fn(P)
où  i est la valeur moyenne de i, et fi() est la fonction de
sortie dont on veut déterminer les paramètres.
 On peut écrire l’équation précédente sous la forme yd = A k,
où yd est un vecteur désiré de dimension P  1 :
 yd (1)  (1) (1) x(1)  (1) xm(1)  n(1)  n (1) x(1)   n (1) xm(1) 
   
 yd (2)  (2) 
(1) x(2) (2) xm(2)  n(2)  n (2) x(2)   n (2) xm(2) 
       
yd     , A        
y (p)  (p) (p) x(p) (p) xm(p)  n(p)  n (p) x(p)   n (p) xm(p) 

 d        
        
 (P)
  (P) x(P) (P) xm(P) n(P)  n (P) x(P)  n (P) xm(P)
yd (P)
et k est le vecteur des paramètres de conséquent inconnus
de dimension n (1 + m)  1 :
k = [k10 k11 k12 … k1m k20 k21 k22 … k2m … kn0 kn1 kn2 … kn m]T
 On a donc :
k = A-1 yd (en pratique k=(AtA)-1At yd )
 Une fois le vecteur k déterminé, le vecteur de sortie du
réseau y peut être calculé ainsi que le vecteur d’erreur
associé, e :
e = yd  y
 Lors de la passe arrière, l’algorithme de
retropropagation d’erreur est appliqué pour mettre à jour
les poids des antécédents des règles.
 Dans l’algorithme ANFIS de Jang, on optimise aussi
bien les paramètres de antécédents que ceux des
conséquents. Durant la passe avant, les paramètres des
conséquents sont adaptés alors que les paramètres des
antécédents sont maintenus constants ; durant la passe
arrière, les rôles sont échangés.
Approximation de fonctions avec ANFIS
 Ex. : suivre la trajectoire définie par la fonction
non-linéaire définie par
cos( 2 x1)
y
e x2

 Détermination de l’architecture :
 Deux entrées, x1 and x2, et une sortie, y.
 Chaque entrée possède deux valeurs
linguistiques
 Donc le réseau ANFIS possède quatre règles.
Modèle ANFIS avec quatre règles

Layer 1 Layer 2 Layer 3 Layer 4 Layer 5 Layer 6


x1 x2
A1 1 N1 1
x1

A2 2 N2 2
y

B1 3 N3 3
x2

B2 4 N4 4
Apprentissage du réseau

 L’ensemble d’apprentissage comprend 101


échantillons représentés par 101 triplets
[x1 x2 yd]
 X1 va de 0 à 10 par pas de 0.1
 X2 = sin(x1) pour donner des paires [x1 x2] qui
sont raisonnablement distribuées
 yd, est déterminé en solvant l’équation.
Apprentissage sur 1 période
y
Training Data
2 ANFIS Output

-1

-2

-3
1
0.5 10
8
0 6
-0.5 4
2
-1 0
x2 x1
Apprentissage sur 100 périodes
y
Training Data
2 ANFIS Output

-1

-2

-3
1
0.5 10
8
0 6
-0.5 4
2
-1 0
x2 x1
On peut améliorer la précision d’approximation en
augmentant le nombre de valeurs linguisitques
par entrée. Par exemple, pour 3 valeurs on
obtient un réseau ANFIS à 9 règles :
x1 x2
A1 1 N1 1

2 N2 2
x1
A2
3 N3 3

A3 4 N4 4
y
5 N5 5 
B1 6 N6 6

7 N7 7
x2
B2
8 N8 8

B3 9 N9 9
Apprentissage sur 1 période en utilisant 3
fonctions d’appartenance par variable d’entrée
y
Training Data
2 ANFIS Output

-1

-2

-3
1
0.5 10
8
0 6
-0.5 4
2
-1 0
x2 x1
Apprentissage sur 100 périodes en utilisant 3
fonctions d’appartenance par variable d’entrée
y
Training Data
2 ANFIS Output

-1

-2

-3
1
0.5 10
8
0 6
-0.5 4
2
-1 0
x2 x1
Fonctions d’appartenance initiales et finales
1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 1 2 3 4 5 6 7 8 9 10 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
x1 x2
(a) Initial membership functions.
1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 1 2 3 4 5 6 7 8 9 10 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
x1 x2
(b) Membership functions after 100 epochs of training.
Et pourquoi pas « neuroniser » un arbre de
décision flou ?
 Arbre de classification/régression neuro-flou
A1 An

RNA de Flouïfication

DIT grand Arbre de
décision flou

0.65 0.35

CLD petit NOM grand

0.2 0.8 0.7 0.3

0 1 1 0
0.2 0.65 0.35 0.3

RNA de Déflouïfication

Valeur/classe prédite
Flouïfication

• Processus en deux étapes :


• Trier les données par catégories (grand- petit) :
Carte de Kohonen
• Décider de la forme et des points remarquables
des fonctions d’apparenance : Morphologie
mathématique

Données Classification Fonctions


d’entrée symbolique Filtre à d’appartenance
SOM
morphologie
mathématique
Déflouïfication

• Perceptron