1

Réseaux neuronaux et applications
Richard Lepage
M.Sc.A ingénierie

Département d’informatique, de
mathématiques et de génie.

Université du Québec à Rimouski




@2007
2
Les Sujets de discussion
 Historique et concepts .

 Types de réseau (MLP, RBF, Kohonen).

 Les champs d’applications.

 Avenir des réseaux de neurones artificielles

 Conclusion.
3
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
 Naissance du modèle théorique (mathématique et informatique) du
neurone biologique élaboré par 2 neuro-biologistes (McCulloch et
Pitts, 1943).
Schématisation d’un
neurone biologique.
Schématisation
d’un neurone
formel servant de
modèle biologique
4
Neurone formel (automate à seuil avec entrées et sorties binaires).
A B S
0 0 0
0 1 1
1 0 1
1 1 1
OU logique
S=0
S=1
A B S
0 0 0
0 1 0
1 0 0
1 1 1
ET logique
S=0
S=1
¿
=
+ + = =
n
i
i i
x w x w x w x w Y
0
2 2 1 1 0 0
) sgn(S
1
1 = Y
0 = Y
b mx y
w
w
x
w
w
y + = ÷
÷
= ou
2
0
2
1
Le neurone formel
S’apparente à la méthode
du discriminant linéaire.
La mise à jour des poids
s’effectue manuellement.
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
Le Biais permet
de jouer sur
l’ordonnée de la
droite de
séparation
35 . 0
1
= w
35 . 0
2
= w
1
x
2
x
Y ) sgn(S
¿
=
n
i
i i
x w
1
1
0
= x
3 .
0
÷ = w
35 . 0
1
= w
35 . 0
2
= w
1
x
2
x
Y ) sgn(S
¿
=
n
i
i i
x w
1
1
0
= x
5 .
0
÷ = w
Biais
0 ) , (
0 2 2 1 1
= + + = + + = w x w x w c by ax y x d
Poids
5
Règles du Perceptron
 En 1949, découverte de la règle d’apprentissage de Hebb pour la mise à jour
des poids d’un réseau de neurones.
 Développement de l’algorithme du perceptron qui permet la mise à jour des
poids selon la sortie désirée d(i) durant le processus d’apprentissage.
Étape 1 –Choisir des valeurs aléatoires pour les poids et le biais

Étape 2 –Appliquer le vecteur d’entrée x(i)

Étape 3 -Calculer la valeur de S ()

Étape 4 – Si S= d(i) on retourne à l’étape 2 sinon on continue à
l’étape 5

Étape 5 -–

Étape 6 - Retourner à l’étape 2.

n
w w w .. ,
2 1
0
w
0 2 2 1 1
... w x w x w S + + + =
) ( ) ( dw ), (
i 0
i d i x i d dw = = n i dw w w .. 1 pour dw w w ,
i i i 0 0 0
= + = + =
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
6
Mise à jour des poids de
la couche linéaire par la
règle de Hebb
1 . 0
1
= w
2
2
= w
1
x
2
x
Y
) sgn(S
1
0
= x
3 .
0
= w
) (i d
-
err
) (i d
1 . 0
1
=
÷ n
w
2 =
n
w
1 ÷ n
x
n
x
Y
) sgn(S
1
0
= x
3 .
0
= w
-
err
Rosenblatt entraina une
couche linéaire de neurones
formels soumis à la règle
d’apprentissage de Hebb
Entrées
Entrées
Sortie désirée
Sortie désirée
Modification des
biais et des
poids du réseau
selon l’erreur
entre la sortie
désirée et la
sortie du réseau
Le perceptron de Rosenblatt (1958).
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
Le but premier du
perceptron est la
modélisation de la
perception visuelle.
7
Problème non linéairement
séparable
En 1970, Minsky et Papert évaluèrent les
faiblesses du Perceptron.
impossibilité pour le Perceptron de
résoudre un problème qui n’est pas
linéairement séparable.

Minsky et Papert préconisèrent d’ajouter
des couches de neurones entre l’entrée et
la sortie mais il restait à trouver une
procédure qui n’était pas connu pour mettre à
jour les poids et les biais du réseau.
A B S
0 0 0
0 1 1
1 0 1
1 1 0
XOR logique
S=1
S=1
S=0
S=0
La droite de
discrimination linéaire
ne peut séparer les
deux classes peut
importe les valeurs
des poids et du biais
1 . 0
1
= w
2
2
= w
1
x
2
x
Y
) sgn(S
1
0
= x
3 .
0
= w
) (i d
-
err
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
8
Évolution du réseau multi-couche
En 1980, révolution du Perceptron à couches multiples (MLP) avec la règle de
rétropropagation du gradient de l’erreur (back-propagation).
x y =
Couche de sortie Couche cachée Couche d'entrée
x1
x2
x3
x4
w
ji
w
kj
y1
y2
y3
z1
z2
zk
Fonctions d’activations
( )
j k k j
y ) ( ' z - t y
k k kj
net f w q o q = = A
Couche cachée vers la couche de sortie
Couche d’entrée vers la couche cachée
i
c
1 k
i
x ) ( ' x
j k kj j ji
net f w w
(
¸
(

¸

= = A
¿
=
o q o q
Cette découverte revient à deux équipes indépendantes:
Généralisation de l’algorithme de
Widrow et Hoff ou règle delta en
minimisant la somme des erreurs
quadratiques.
Rumelhart et all et Le Cun et all
x y =
x
e
y
÷
+
=
1
1
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
9
Résolution d’un problème non linéairement séparable avec le réseau MLP
A B S
0 0 0
0 1 1
1 0 1
1 1 0
XOR logique
D1
S=1
S=1
S=0
S=0
D2
y
2
o

x
1
x
2
y
1
1
1 , 1
w
2
1 , 1
w
2
2 , 1
w
1
1 , 2
w
1
1 , 2
w
Le réseau MLP permet de
séparer les deux classes
du problème XOR. Noeuds d’entrée
Noeuds cachés
Noeuds de sortie
Branchements
Couche 0
Couche 1
Couche N
Couche N-1
Réseau à N-couches
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
10
Configuration optimale du réseau de neurone (MLP)
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
Un des gros problèmes qui apparait dans l’utilisation des
réseaux de neurones est la difficulté du choix dans le nombre
de couche et le nombre de neurone par couche.
 Le pas d’apprentissage
 La vitesse d’apprentissage
 La capacité de généralisation du réseau
 Les fonctions d’activations des couches cachées
Paramètres à prendre en considération
Comment y remédier?
 Méthode essai et erreur
 La méthode des plans d’expériences (taguchi)
 Optimisation conjointe des paramètres et de la topologie du
réseau par algorithme génétique hiérarchiques.
 Utilisation de l’ensemble de Pareto optimal (Vilfredo Pareto )
11
Avantages:

Le réseau atteint une précision très élevée au niveau de la reconnaissance
et la base d’exemple n’a pas besoin d’être très grande.

Désavantage:

On perd en généralité car les formes sont reconnues d’une manière trop
exacte. Si une forme proche est présentée au réseau, celle-ci ne sera peut-
être pas reconnue. On peut ajouter un bruit blanc au données pour permettre
une meilleure généralisation.
Techniques d’apprentissage ou de détermination des poids
Apprentissage supervisé (Approche déterministe)
On enseigne au réseau ce qu’il doit présenter comme information à la sortie
selon les données présentées à l’entrée. Cela force les poids à prendre des
valeurs distinctes selon les formes présentées au réseau de neurones.
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
12
Le réseau regroupe les données selon des algorithmes de calcul de distance
par la méthode des moindres carrées. À chaque groupe correspond une
classe. Après l’identification de toutes les classes, une valeur de sortie,
dictée par l’usager, est associée à chacune des classes. Peut-être associé à
une inférence bayésienne pour produire des probabilités conditionnelles pour
chaque variable aléatoire étant donné les autres.

Avantages:

Le réseau atteint une précision très élevée au niveau de la reconnaissance
et la généralisation est très bonne.

Désavantage:

La base d’exemples se doit d’être très volumineuse et le temps
d’apprentissage est très long si un nouvel exemple est présenté au réseau
pour un nouvel apprentissage.
Techniques d’apprentissage ou de détermination des poids
Apprentissage non supervisé (approche statistique)
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
13
Méthode de minimisation pour le calcul des poids.
) (
) (
2
1
,
2
,
n
j
n
j
n
j
n
j
n
i
n
j
n
j
n
i j
n
i j
h f
x h f
w
w
' · A · =
c
c
· ÷ = A
· ' · A · =
c
c
· ÷ = A
÷
o
u
c
o u
o
c
o
Méthode de descente du Gradient
Mise à jour des poids et des biais
n
j
n
j
n
j
n
i j
n
i j
n
i j
old new
w old w new w
u u u A + =
A + =
) ( ) (
) ( ) (
, , ,
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
14
Méthode de minimisation pour le calcul des poids.
( )
j k k j
y ) ( ' z - t y
k k kj
net f w q o q = = A
Méthode de descente du Gradient avec terme d’inertie
) ( ) (
2
old w
w
new w A · +
c
c
· ÷ = A |
c
o
0< | <1
Terme d’inertie
w
w
c
c
·
÷
÷ ~ A
2
1
c
|
o
Aw convergera vers
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
15
Méthode de minimisation pour le calcul des poids.
Méthode de Newton
 + · ÷ + V · ÷ + = H w w w E w w w E w E
2
0 0 0 0
) (
2
1
) ( ) ( ) ( ) (
Par l’utilisation de la série de Taylor
j i
ij
w w
E
H
c c
c
=
2
où H = matrice Hessienne E = fonction d’erreur (c
2
)
De la série de Taylor, nous obtenons
 + ÷ · + V = V ) ( ) ( ) (
0 0
w w H w E w E

) (
0
1
0
w E H w w V · ÷ =
÷
( Méthode de Newton)
( )
¿
=
= ÷ =
N
i
i ij j j j
x w Y d Y w E
1

2
1
) (
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
16
Avantages:
w Convergence rapide (forme quadratique)

Désavantages:
wCalcul intensif (nécessité de calculer la matrice inverse à
chaque pas d’itération.
wLa matrice Hessienne est difficile à calculer selon la
complexité de la fonction d’activation. Nous devons choisir
une fonction d’activation qui est continuement dérivable.

Méthode de minimisation pour le calcul des poids.
Mise à jour des poids par la méthode de Newton
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
17
Avantages:
wConvergence très rapide et généralisation très bonne.
wMéthode la plus utilisée jusqu’à maintenant.

Désavantages:

Il ne faut pas que le nombre de poids constituant le réseau soit plus
grand que 200 car cette méthode devient inéfficace en terme de
rapidité de calcul.
Méthode de minimisation pour le calcul des poids.
Méthode Levenberg-Marquardt Backpropagation
1
) (
) (
) ( ) (
÷
· + ÷ = A
× =
× =
JE I JJ w
E w J JE
w J w J JJ
µ
où J = Matrice Jacobienne
E = Toutes les erreurs
I = Matrice identité
µ = Taux d’apprentissage
HISTORIQUE ET CONCEPT DES RÉSEAUX NEURONAUX
18
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
MLP – Multilayer perceptron (perceptron multi-couches)
Réseau vu précédemment.

RBF – Radial Basis Function (Fonction d’activation gaussienne)
Approximation de fonctions à plusieurs variables.

Réseau de Kohonen (Réseau auto-organisateur)
Conservation topologique de la forme
Compression de données

Réseau de Hopfield (Réseau pleine connection) non présenté dans cette
présentation
Nouvelles tendances:

Combinaison de plusieurs types de réseaux pour des problèmes spécifiques
Réseau de Kohonen Réseau MLP Entrée
Sortie
19
Le réseau RBF (Radial Basis Function)
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
Broomhead et Lowe (1988) employèrent pour la première fois le réseau RBF.
Sert actuellement pour les applications d’approximation de fonction mais
s’explique mieux dans le contexte de la classification.
Structure du réseau RBF
x
2
x
1
La couche cachée est constituée
de fonction-noyau de type gaussienne.
Paramétrisation nécessaire
de la fonction noyau.
sortie linéaire
Entrées
Le réseau RBF est un
réseau à trois couches
(Couche d’entrée, couche
RBF, couche de sortie
linéaire).
La règle Delta est utilisée comme
technique d’apprentissage. Il faut
choisir le bon nombre de neurone
pour la couche RBF.
20
Le réseau RBF (Radial Basis Function)
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
Pour déterminer le nombre et la position des neurones-noyau, on utilise
l’algorithme décrit par Mustawi et all (1992).
1. On associe un neurone par donnée du corpus d’apprentissage
représentant un nuage distinct, le but étant de regrouper des nuages de
données.
2. Choisir aléatoirement un nuage (un neurone i)
3. Trouver un second nuage de la même classe (un neurone j).
4. Regroupement des deux nuages en un nouveau nuage k et calculer
barycentre C
k
.
5. Calculer la distance r
k
entre C
k
et la donnée de k la plus éloignée.
6. Calculer la distance dk entre Ck et le barycentre du nuage le plus
proche.
7. Si dk > Delta*rk, alors regroupement accepté et nouveau nuage k
remplace nuage i et j, sinon répété depuis l’étape 3 jusqu’à ce que le
regroupement soit accepté.
8. Répéter l’opération à partir de 2, en examinant tous les nuages jusqu’à
ce qu’aucun regroupement ne soit plus possible.
21
Le réseau RBF (Radial Basis Function) dans l’approximation d’une fonction
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
Vecteurs d’apprentissage
Fonction gaussienne
Somme pondérée des entrées
Résultat après apprentissage
On présente 20 vecteurs
que le réseau doit
apprendre (x,y). Une fois
l’apprentissage terminé,
n’importe laquelle des
valeurs présentées à
l’entrée donnera une
valeur de sortie qui sera
présente sur la courbe.
22
Le réseau SOM de Kohonen (réseau compétitif)
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
Kohonen (1990) développa la carte topologique (“Self-Organizing Map).
Le réseau à apprentissage
compétitif de Kohonen
(spécialisation du neurone )
s’approche le plus du type
de structure observé dans le
cerveau.
Le réseau SOM est constitué d’une couche d’entrée et d’une couche de compétition en
sortie.
1 , 1
w
1
e
1 , 2
w
2 , 1
w
2 , 2
w
2
e
1
i
2
i
Couche
d’entrée
Couche de
compétition
Poids
du
réseau
I1 I2
W1 0.6 0.4
W2 0.4 0.6
Patron 1 1.0 0.0
Patron 2 0.8 0.2
Patron 3 0.0 1.0
Patron 4 0.2 0.8
La règle d’apprentissage
modifie les poids du
neurone 1 de façon à le
rapprocher du patron
présenté.
Le réseau SOM est parfaitement adapté dans l’analyse des données (regroupement
sous forme de nuage de données).
23
Le réseau SOM de Kohonen (réseau compétitif)
TYPES DE RÉSEAU (MLP, RBF, KOHONEN).
100 points de données créés sur
un cercle unitaire
1 , 1
w
1
e
1 , 2
w
2 , 1
w
2 , 2
w
2
e
x
y
9
e
10
e
2 entrée et 10 neurones dans la
couche compétitive
Les vecteurs poids suivent la courbe
de données après apprentissage.
Le graphique représentant les poids de chaque neurone suivent la
courbe de données en positionnant les poids de chacun des
neurones au barycentre des nuages de données qui ont été créé.
24
APPLICATIONS DES RÉSEAUX NEURONAUX
 Classification de données vectorielles
 Reconnaissance de formes
 Approximation de fonctions
 Détection de patrons dans un signal
 Prédiction future selon des données passés
 Contrôle robotique (PID)
 Compression de données
 régression linéaire et non-linéaire

25
Classification par réseau MLP.
-3 -2 -1 0 1 2 3
-3
-2
-1
0
1
2
Class 1
Class 0
x = randn([2 200]);
o = (x(1,:).^2+x(2,:).^2) < 1;
Commande Matlab : Création des données d’apprentissage
Les composantes x
1
et x
2
sont générées à
partir de nombres aléatoires.

Sortie désirée o:
Si (x
1
,x
2
) est dans un cercle
de rayon 1 centré à l’origine
Alors
o = 1
Sinon
o = 0
APPLICATIONS DES RÉSEAUX NEURONAUX
26
PR = [min(x(1,:)) max(x(1,:));
min(x(2,:)) max(x(2,:))];
S1 = 10;
S2 = 1;
TF1 = 'logsig';
TF2 = 'logsig';
BTF = 'traingd';
BLF = 'learngd';
PF = 'mse';

net = newff(PR,[S1 S2],{TF1
TF2},BTF,BLF,PF);
Commande Matlab : Création d’un réseau à deux couches
Bornes de chacune des entrées
Nbr. de noeuds dans la couche 1 et 2
Fonction d’activation de la couche 1 et 2
Fonction d’entrainement
Fonction d’apprentissage
Fonction coût (mean square error ou MSE)
Commande de création du réseau
APPLICATIONS DES RÉSEAUX NEURONAUX
Classification par réseau MLP.
27
net.trainParam.epochs = 2000;
net.trainParam.goal = 0.002;
net = train(net,x,o);
y = sim(net,x);
netout = y>0.5;
Nbr. d’époque de calcul
Erreur maximale désirée
Commande d’apprentissage
Calcul en continue des sortie du réseau
Conversion en sortie binaire
Structure du réseau
x
2
x
1
Couche cachée
(sigmoide)
Noeud de sortie (Sigmoide)
Noeuds d’entrée
Unité de seuil
(pour sortie binaire)
APPLICATIONS DES RÉSEAUX NEURONAUX
Classification par réseau MLP.
28
-3 -2 -1 0 1 2 3
-3
-2
-1
0
1
2
Class 1
Class 0
Les poids sont choisis aléatoirement avant
le début du calcul. Affichage des droites de
séparation avant apprentissage.
APPLICATIONS DES RÉSEAUX NEURONAUX
Classification par réseau MLP.
Lorsque le processus d’apprentissage est
terminé, tout vecteur se présentant en
entrée du réseau sera reconnu comme
faisant partie de la classe o ou x.
On essaye de voir jusqu’à quel point les
droites de séparation peuvent encercler les
vecteurs x pour former une classe distinctes
des vecteurs o.
Trois types d’algorithme de gestion
des poids seront utilisés dans cet
exemple pour démontrer la rapidité
de chacun d’eux lors du processus
d’apprentissage.
29
Algorithme d’apprentissage:
Descente de gradient avec terme d’inertie
0 0.5 1 1.5 2
x 10
4
10
-3
10
-2
10
-1
10
0
Performance is 0.151679, Goal is 0.002
20000 Epochs
T
r
a
i n
i n
g
-
B
l u
e
G
o
a
l -
B
l a
c
k
MSE vs époques d’apprentissage
Erreur de classification : 40/200
-3 -2 -1 0 1 2 3
-3
-2
-1
0
1
2
Class 1
Class 0
MSE vs époques d’apprentissage
(convergence atteinte en 10 époques)
Algorithme d’apprentissage:
Levenberg-Marquardt Backpropagation
0 2 4 6 8 10
10
-3
10
-2
10
-1
10
0
Performance is 0.00172594, Goal is 0.002
10 Epochs
T
r
a
i n
i n
g
-
B
l u
e
G
o
a
l -
B
l a
c
k
Erreur de classification : 0/200
-3 -2 -1 0 1 2 3
-3
-2
-1
0
1
2
Class 1
Class 0
À la fin de l’apprentissage, 6 noeuds seulement sont nécessaires pour classer les vecteurs x.
APPLICATIONS DES RÉSEAUX NEURONAUX
Classification par réseau MLP.
MSE vs époques d’apprentissage
Algorithme d’apprentissage:
Méthode de descente par le gradient
0 0.5 1 1.5 2
x 10
4
10
-3
10
-2
10
-1
10
0
Performance is 0.151511, Goal is 0.002
20000 Epochs
T
r
a
i n
i n
g
-
B
l u
e
G
o
a
l -
B
l a
c
k
Erreur de classification : 40/200
-3 -2 -1 0 1 2 3
-3
-2
-1
0
1
2
Class 1
Class 0
30
APPLICATIONS DES RÉSEAUX NEURONAUX
Reconnaissance de forme avec réseau MLP
Schémas synoptiques d’un système de reconnaissance de formes
Acquisition de l’image
Prétraitement de l’image
Extraction des
caractéristiques
d’invariance
Création d’une base de données des caractéristiques
invariantes (Identifier chaque image avec une classe
d’appartenance)
Processus d’apprentissage du réseau de neurones
(stabilisation des poids du réseau selon la base de
données des caractéristiques).
Présentation au réseau de
neurones pour fin
d’identification (le processus
d’apprentissage est réalisé
au préalable).
Présentation du résultat
de la classification.
Choisir aléatoirement selon une courbe normale
(moyenne nulle et variance unitaire) des échantillons
qui serviront à l’apprentissage du réseau)
On se sert des trois premier modules pour former la
base de données des caractéristiques d’images.
31
APPLICATIONS DES RÉSEAUX NEURONAUX
Prétraitement des données images
Image originale en
couleurs
Niveau de gris Filtre Sobel
Rehaussement de
contraste
Remplissage des
vides
Linéarisation de
l’objet
Segmentation de
l’image
1 2 3
4 5
6
Reconnaissance de forme avec réseau MLP
32
Reconnaissance de forme avec réseau MLP
APPLICATIONS DES RÉSEAUX NEURONAUX
M
10
et M
01
définissent le
centre de gravité de la
surface et M
00
définit la
surface de l’objet
Moments centrés d’ordre p,q
Extraction des caractéristiques de la forme
Moments élémentaires d’ordre p,q
On recherche l’invariance en translation, en rotation et en homothétie en
groupant des moments centrés d’ordre p,q, par exemple M
20
+M
02

Axes principaux d’inertie
Allongement et orientation
de la forme
33
Reconnaissance de forme avec réseau MLP
APPLICATIONS DES RÉSEAUX NEURONAUX
Normalisation des données et présentation au
réseau MLP
La normalisation est le processus par lequel les données d’entrée et les
données en sortie ont des valeurs évoluant entre -1 et +1.
On utilise habituellement deux couches
cachées d’une dizaine de neurones pour
éviter le sur-apprentissage et on fait apprendre
au réseau les formes qui sont présentées à
l’entrée selon les paramètres caractéristiques.
On peut ajouter un bruit blanc aux formes qui sont présentées lors de
l’apprentissage du réseau pour améliorer la généralisation. On utilise un
algorithme d’apprentissage de type Levenberg-Marquard qui est le plus
adéquat pour le réseau MLP.
34
APPLICATIONS DES RÉSEAUX NEURONAUX
Reconnaissance des signaux par réseau MLP
Signal à analyser Patrons de signaux
Le signal que nous voulons analyser provient d’une machine à usiner. Pour
éviter d’endommager la pièce, un réseau de neurone détecte les bris des
outils à usiner (mèches, fraiseuses…) en reconnaissant les signaux
précurseurs.
Signal à analyser
en temps réel
Passage d’une
fenêtre de 10
échantillons par
intervalle d’un
échantillon.
Présentation des
10 échantillons au
réseau MLP
Décision sur la
commande de
l’appareil
35
APPLICATIONS DES RÉSEAUX NEURONAUX
On utilise un réseau d’une couche cachée de 5 neurones avec fonction
d’activation logsig et un neurone en sortie avec fonction d’activation purelin.
Reconnaissance des signaux par réseau MLP
y1
y10
La mise à jour des poids se
fait par l’algorithme de
Levenberg-Marquard durant
l’étape d’apprentissage.
Contrôle de la
machine à usiner
36
AVENIR DES RÉSEAUX NEURONAUX
Caractéristiques générales

Technology: 0,35 μ CMOS
Chip size: 35 mm2
Supply voltage: 3,3 V
Clock frequency: 33 MHz
Power consumption: 0,5 W
Package type: CQFP 208
Dimensions: 30,6 mm x 30,6 mm x 4,1 mm
Processing speed at 33MHz: 45MCUPS1
Implantation sous forme de circuits intégrés d’un réseau de neurone
électronique à controle universel.
Réseau de neurones à circuit intégré
Le DANA23 (Digital Adaptive Neuro ASIC) contient un réseau
complet avec modification et sauvegarde des poids et biais avec un
algorithme d’apprentissage intégré de type backpropagation modifié.
37
AVENIR DES RÉSEAUX NEURONAUX
Réseau de neurones à circuit intégré
38
AVENIR DES RÉSEAUX NEURONAUX
Réseau de neurones biologiques sur substrat de silicium (neurochips)
Un groupe de chercheur du Caltech (institut de technologie de
Californie) ont réussi la greffe d’un neurone sur un substrat de silicium
en 1991.
La vision et les capacités de la mémoire neurologique exécutent massivement des
opérations parallèles impossibles à reproduire même sur les plus grands
superordinateurs du monde.

Conception prochaine de circuits qui
exécutent des calculs analogiques
massivement parallèles
La surface lisse du silicium est un
environnement idéal pour la
croissance des cellules cérébrales.
39
CONCLUSIONS
 Les réseaux de neurones sont en constante évolution et la nouvelle vogue
est de combiner différents réseaux pour accomplir des tâche spécifiques.

 L’optimisation de la configuration des réseaux de neurones est actuellement
un problème ouvert. Il existe diverses techniques mais celle qui optimise
vraiment la configuration n’a pas vu le jour.

 Des recherches intensives sont en cours pour appliquer les réseaux SOM
(auto-organisateur) dans le secteur de l’industrie. La compréhension des
réseaux SOM permet d’approcher le comportement du cerveau humain en
liaison avec la logique floue.

 Nous sommes encore loin de l’époque où un cerveau humain sera remplacé
par une machine car les fonctions humaines même les plus simple sont un
énorme défis pour la technologie.
40
Vous avez des questions???

Sign up to vote on this title
UsefulNot useful