Professional Documents
Culture Documents
Formation IA
Formation IA
30/09/2023
De Intelligence Artificielle à l’apprentissage automatique
Salah Zidi
Maitre de conférences à l’ISSIG
Salah Zidi
1
IA & Knowledge Economy
Salah Zidi 2
IA & Knowledge Economy
Salah Zidi 3
IA & Knowledge Economy
GAFAM
(Google, Amazon, Facebook, Apple et
Microsoft)
NATU
(Netflix, Airbnb, Tesla, Uber)
Salah Zidi 4
Intelligence Artificielle
de la théorie à la pratique
1. Comprendre la théorie
Principe théorique
Algorithme (étapes)
2. Pratiquer
Programme (Python, Matlab, …)
Évaluation
Utilisation des bibliothèques
3. Appliquer
Préparation de données
Extraction et sélection de variables
Application des programmes
4. Utiliser
Profiter de la technologie
Etre consommateur
Sans être obliger de comprendre
Salah Zidi 5
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 6
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 7
Qu’est ce que l’IA?
Reproduction d’un raisonnement par des moyens
informatiques.
Salah Zidi 8
Qu’est ce que l’IA?
• Optimisation • Perception
Meta Traitement
heuristiques d’image
Machine Logique
learning Floue
• Apprentissage
• Raisonnement
Salah Zidi 9
Qu’est ce que l’IA?
Salah Zidi 10
Qu’est ce que l’IA?
Deux ou trois vagues de l’IA?
1. IA faible ou descendante
Imitation fidèle d'un comportement observé.
Un programme informatique.
Très performant mais sans possibilité d’évoluer.
2. IA forte (ascendante)
Comportement humain mimé par suite d'apprentissage et accumulation de connaissances.
3. IA Générative ?
Machine capable de générer une réponse: exp NLP Transformers
Machine dotée d'une sorte de conscience.
Algorithmes évoluent et échappent progressivement au cadre fixé.
Salah Zidi 11
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 12
APPRENTISSAGE AUTOMATIQUE
Formulation de l’expertise sous la forme d’un
modèle.
Salah Zidi 13
APPRENTISSAGE AUTOMATIQUE
La science des données (“Data science”): approche(s)
pluridisciplinaire pour l’extraction de connaissances à
partir de données hétérogènes.
Salah Zidi 15
APPRENTISSAGE AUTOMATIQUE
Par renforcement : à partir d’un ensemble de séquences de
décisions dans un environnement dynamique, et pour chaque
action de chaque séquence une valeur de récompense. il faut
apprendre un modèle capable de prédire la meilleure décision à
prendre étant donné un état de l’environnement.
Salah Zidi 16
APPRENTISSAGE AUTOMATIQUE
Salah Zidi 17
APPRENTISSAGE AUTOMATIQUE
La préparation des Séparation de L’ingénierie des Apprentissage
données données caractéristiques (Feature
Engineering)
•Récolte des données •Données •Visualisation des •Modèle
•Réconciliation (Data apprentissage données mathématique ou
Wrangling) •Données test •Extraction graphique
•Enrichissement des données •Données validation •sélection
Test Utilisation
•Mise en production
• Vérification de la
pertinence des •Suivi des résultats
résultats avec les •Suivi de
données de test l’apprentissage si
évolutif
Salah Zidi 18
APPRENTISSAGE AUTOMATIQUE
Salah Zidi 19
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 20
APPRENTSSAGE SUPERVISE
‒ Par analogie
K Plus Proches Voisin (KPPV)
‒ Par combinaison de tests élémentaires
Arborescence: Arbre de Décision; Forêts Aléatoires (Random Forests)
Vote pondéré: boosting (dopage)
‒ Par approche probabiliste (avec hypothèses sur distribution des classes):
Méthodes bayésiennes
‒ Par maximisation de la « marge »
Séparateurs à Vaste Marge ou Support Vector Machines (SVM)
‒ Par minimisation de l’erreur (descente de gradient, etc..)
Réseaux de neurones (MLP), etc…
Salah Zidi 21
KPPV (K Plus Proche Voisins)
KNN (K Nearest Neighbor)
Salah Zidi 22
KPPV
‒ On dispose d'une base de données d'apprentissage
constituée de m couples «entrée-sortie».
‒ Pour estimer la sortie associée à une nouvelle entrée x,
la méthode consiste à prendre en compte les k
échantillons d'apprentissage dont l'entrée est la plus
proche de la nouvelle entrée x, selon une distance à
définir.
‒ Il s’agit de retenir la classe la plus représentée parmi
les k sorties associées aux k entrées les plus proches de
la nouvelle entrée x. Salah Zidi 23
Arbre de décision
Decision Tree
Salah Zidi 24
ARBRE DE DÉCISION Prêt bancaire
Permet d'extraire des règles logiques de cause à
effet (des déterminismes)
Construction d’un arbre de décision comme
modèle prédictif .
Ce modèle prédit la valeur d'une variable-cible
depuis la valeur de plusieurs variables d'entrée.
Les feuilles représentent les valeurs de la variable-
cible et les embranchements correspondent à des
combinaisons de variables d'entrée qui mènent à
ces valeurs.
Une fois l’arbre construit, classer un nouvel
candidat se fait par une descente dans l’arbre, de la
racine vers une des feuilles (qui encode la décision
ou la classe). Salah Zidi 25
ARBRE DE DÉCISION
Construction de l’arbre
Si Variable catégorielle : génère une branche (un
descendant) par valeur de l’attribut.
Si Variable numérique : test par intervalles (tranches)
de valeurs.
Au départ, les points de la base d’apprentissage sont
tous placés dans le nœud racine.
L’arbre est construit par partition récursive de chaque
nœud en fonction de la valeur de l’attribut testé à
chaque itération.
Les feuilles de l’arbre spécifient les classes.
Le processus s’arrête quand les éléments d’un nœud
ont la même valeur pour la variable cible (homogénéité).
Salah Zidi 26
ARBRE DE DÉCISION
Algorithme ID3 (Iterative Dichotomiser 3): Implémentation
Quel variable (attribut) choisir pour un nœud S?
On Partitionne S sur les valeurs de chaque attribut a en k sous-groupes (k est le nombre
de valeurs distinctes de l’attribut a),
On calcule le gain d’information sur l’attribut a
Salah Zidi 27
ARBRE DE DÉCISION
Salah Zidi 28
ARBRE DE DÉCISION
Si on choisit l’attribut Temp pour le
nœud racine
Salah Zidi 29
ARBRE DE DÉCISION
Salah Zidi 30
ARBRE DE DÉCISION
L’attribut « Pif » est l’attribut gagnant pour le nœud racine sur car il offre le plus
grand gain d’information (par rapport à la cible)
Salah Zidi 31
Classification Naïve Bayésienne
Naive bayezian classification
Salah Zidi 32
NAÏVE BAYESIENNE
Une classification probabiliste simple (dite naïve).
En se basant sur le théorème de Bayes.
Estimation de la probabilité d’appartenance à chaque classe.
La classe gagnante est la classe dont la probabilité est maximale.
P(B) ne dépend pas de la classe.
Salah Zidi 33
NAÏVE BAYESIENNE: Exemple
Lorsque les valeurs des caractéristiques sont discrètes, on utilise la loi multinomiale
Couleur Type Origine Volé Couleur
P( Rouge⁄Oui)=3/5 P( Rouge⁄Non)=2/5
Rouge Sport Domicile Oui
P( Jaune⁄Oui)=2/5 P( Jaune⁄Non)=3/5
Rouge Sport Domicile Non
Rouge Sport Domicile Oui Type
Jaune Sport Domicile Non P( Sport⁄Oui)=4/5 P( Classique⁄Oui)=1/5
Jaune Sport Importation Oui P( Sport⁄Non)=2/5 P( Classique⁄Non)=3/5
Jaune Classique Importation Non Origine
Jaune Classique Importation Oui P( Domicile⁄Oui)=2/5 P( Importation⁄Oui)=3/5
Jaune Classique Domicile Non P( Domicile⁄Non)=3/5 P( Importation⁄Non)=2/5
Rouge Classique Importation Non
Rouge Sport Importation Oui P( Oui)=5/10 P( Non)=5/10
Salah Zidi 34
NAÏVE BAYESIENNE
Soit un nouveau élément à classer
Salah Zidi 35
NAÏVE BAYESIENNE
Lorsque les valeurs des caractéristiques sont continues, on utilise la loi normale (loi gaussienne).
Loi gaussienne Loi Normale
Espérance variance
Lorsque les valeurs des caractéristiques sont binaires, on utilise la loi de Bernoulli.
Salah Zidi 36
SVM (Séparateur à Vaste Marge)
Support Vector Machines
Salah Zidi 37
SVM
SVM est un algorithme d’apprentissage statistique basé sur la maximisation des marges.
SVM linéaire
Pour un échantillon d’apprentissage,
il existe plusieurs solutions (droite) pour une
classification (séparation) linéaire entre deux
classes.
L’une des solutions passe entre les deux
classes (milieu) et maximise la marge de part
et d’autre.
Salah Zidi 38
SVM
Pour une classification linéaire, il en existe une infinité
de droite séparatrice.
Il s’agit d’un problème d’optimisation quadratique sous contraintes linéaires. La solution est
le vecteur w* et l’offset W0*. Et on trouve la fonction décision:
Salah Zidi 40
SVM
On passe par le Lagrangien:
Alors:
Salah Zidi 41
SVM
D’après les conditions de Karush-Kuhn-Tuker, seul les points sur les hyperplans
frontières 𝑤 ∗ 𝑥𝑖𝑡 + 𝑤0∗ = ±1 jouent un rôle. Ces points sont appelés vecteurs support, ou
points support ou points critiques.
La solution devient
Salah Zidi 43
SVM
SVM Non linéaire
Impossible de trouver une séparation linéaire entre la classe rouge
et la classe bleu.
La seule séparation possible est circulaire.
On souhaite un changement de représentation pour permettre une
séparation linéaire entre les classe.
Salah Zidi 44
SVM
Dans le nouveau espace l’équation de l’hyperplan séparatrice est:
Le produit scalaire dans l’espace hermitien Φ(X) peut être remplacer par une fonction
noyau.
Salah Zidi 45
SVM
Le problème d’optimisation quadratique devient:
Salah Zidi 46
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 47
K-MOYEN
K-MEANS
Salah Zidi 48
K-MOYEN
1. On commence par déterminer k (nombre de classes). Dans notre exemple k=3
2. On tire aléatoirement 3 individus. Ces 3 individus correspondent aux centres initiaux des 3 classes.
1 2
Salah Zidi 49
K-MOYEN 5. On calcule les centres de gravité des groupes qui
4. On affecte chaque individu au centre le plus proche.
deviennent les nouveaux centres
3
4
6. On recommence les étapes 3, 4 et 5 tant que les individus sont réaffectés à de nouveaux groupes après une itération.
Salah Zidi 50
RESEAUX DE NEURONES ARTIFICIELS
ANN: ARTIFICIAL NEURAL NETWORK
Salah Zidi 51
RESEAUX DE NEURONES ARTIFICIELS
Modèle biologique
L’influx nerveux est assimilable à un signal électrique se
propageant comme ceci :
Les dendrites reçoivent l’influx nerveux d’autres
neurones.
Le neurone évalue l’ensemble de la stimulation reçue.
Si elle est suffisante, il est excité : il transmet un signal
(0/1) le long de l’axone.
L’excitation est propagée jusqu’aux autres neurones qui
y sont connectés via les synapses.
Salah Zidi 52
RESEAUX DE NEURONES ARTIFICIELS
Principe des neurones Formels
Pas de notion temporelle.
Coefficient synaptique : coefficient réel.
Sommation des signaux arrivant au neurone.
Sortie obtenue après application d’une fonction de
transfert
Le modèle
• Le neurone reçoit les entrées x1, …, xi, …, xn.
• Le potentiel d’activation du neurone p est défini
comme la somme pondérée (les poids sont les
coefficients synaptiques wi) des entrées.
• La sortie o est alors calculée en fonction du seuil θ.
Salah Zidi 53
RESEAUX DE NEURONES ARTIFICIELS
Perceptron linéaire à seuil
n entrées x1, …, xn
n coefficients synaptiques w1, …, wn
Une sortie o
Un seuil θ
Salah Zidi 54
RESEAUX DE NEURONES ARTIFICIELS
On ajoute une entrée supplémentaire x0 (le biais), avec le coefficient synaptique suivant:
w0 = − θ
On associe comme
fonction de transfert la
fonction de Heavyside :
f(x) = 1 si x > 0
f(x) = 0 sinon
Salah Zidi 55
RESEAUX DE NEURONES ARTIFICIELS
Algorithme de perception
Salah Zidi 56
RESEAUX DE NEURONES ARTIFICIELS
Salah Zidi 57
RESEAUX DE NEURONES ARTIFICIELS
μ=1
x0 vaut toujours 1
Initialisation :
w0 = 0 ; w1 = 1 ; w2 = − 1
Donc : w0 = 0 ; w1 = 1 ; w2 = 1
Ce perceptron calcule le OU logique pour tout couple (x1 ; x2)
Salah Zidi 58
RESEAUX DE NEURONES ARTIFICIELS
Salah Zidi 60
Apprentissage: règle généralisée
Apprentissage globale
Initialiser aléatoirement les coefficients wi.
Répéter :
Pout tout i :
∆wi = 0
Fin Pour
Pour tout exemple (x, c) dans S
Calculer la sortie o du réseau pour l ’entrée x
Pout tout i :
∆wi = ∆wi + μ ∗ (c − o) ∗ xi ∗ σ’(x.w)
Fin Pour
Fin Pour
Pour tout i :
wi = wi + ∆wi
Fin Pour
Fin Répéter
Salah Zidi 61
Apprentissage: règle généralisée
Salah Zidi 63
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 64
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 65
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 66
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 67
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 68
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 69
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 70
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 71
RESEAUX DE NEURONES ARTIFICIELS
Apprentissage par rétropropagation
Salah Zidi 72
MESURE DE PERFORMANCES
Salah Zidi 73
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 74
DEEP LEARNING
Salah Zidi 75
APPRENTISSAGE PROFOND
Principe: Apprentissage profond vs Apprentissage automatique
Salah Zidi 76
APPRENTISSAGE PROFOND
Salah Zidi 77
APPRENTISSAGE PROFOND
CNN: Architecture
Salah Zidi 78
APPRENTISSAGE PROFOND
Réseau de Neurone Convolutif « CNN »
Salah Zidi 80
APPRENTISSAGE PROFOND
Convolution
Salah Zidi 81
APPRENTISSAGE PROFOND
Paramètres de la couche de convolution
Salah Zidi 82
APPRENTISSAGE PROFOND
ReLu(Rectified Linear unit)
Salah Zidi 83
APPRENTISSAGE PROFOND
Pooling
Réduire la taille d’une images
Tout comme pour la convolution, on applique un filtre qu’on fait glisser sur l’image
Salah Zidi 84
APPRENTISSAGE PROFOND
Pooling
Salah Zidi 85
APPRENTISSAGE PROFOND
Couches entièrement connectées
Chaque neurone est connecté à toutes les entrées
Apprend des combinaisons non linéaires des caractéristiques pour créer des prédicats
Salah Zidi 86
APPRENTISSAGE PROFOND
Couches optionnelles
Salah Zidi 88
APPRENTISSAGE PROFOND
CNN: Exemple réel
LeNet – C’est la première architecture réussie des réseaux convolutifs. Elle a été
développé par Yann LeCun en 1990 et elle était utilisé pour lire des codes postaux,
des chiffres simples, etc.
Average pooling
Sigmoid or tanh nonlinearity
Fully connected layers at the end
Trained on MNIST digit dataset
with 60K training examples
Salah Zidi 89
APPRENTISSAGE PROFOND
CNN: Exemple réel
AlexNet – C’est le réseau qui a été présenté dans le défi de l’ImageNet en 2012.
C'est en fait le réseau qui a popularisé les réseaux Convolutional, car il a de loin surpassé
tous les autres concurrents. Il a été développé par Alex Krizhevsky, Ilya Sutskever,
et Geoff Hinton.
Similar framework to LeNet but:
Max pooling, ReLU nonlinearity
More data and bigger model (7 hidden layers,
650K units, 60M params)
GPU implementation (50x speedup over
CPU)
Trained on two GPUs for a week
Dropout regularization
Salah Zidi 90
APPRENTISSAGE PROFOND
CNN: Exemple réel
GoogLeNet – Le vainqueur de l'ILSVRC 2014 était un réseau convolutif de Google. Ils ont
utilisé des couches de mise en commun moyennes pour réduire considérablement le nombre
de paramètres dans le réseau. Il y a plusieurs versions de suivi au GoogLeNet.
Salah Zidi 91
APPRENTISSAGE PROFOND
CNN: Exemple réel
VGGNet – Réseau de neurones convolutionnels de Karen Simonyan et Andrew
Zisserman qui est devenu connu sous le nom de VGGNet. Ce réseau a prouvé que la
profondeur du réseau qui est essentiel pour de bonnes performances. Il a 16 couches
convolutives.
Salah Zidi 92
APPRENTISSAGE PROFOND
CNN: Exemple réel
ResNet – Développé par Kaiming He et al. était le gagnant de ILSVRC 2015.
Salah Zidi 93
APPRENTISSAGE PROFOND
Recurrent Neural Network« RNN »
Salah Zidi 94
APPRENTISSAGE PROFOND
Long Short-Term Memory LSTM
Salah Zidi 95
PLAN
1 INTRODUCTION: Qu’est ce que l’IA?
2 APPRENTISSAGE AUTOMATIQUE
3 APPRENTSSAGE SUPERVISE
5 APPRENTISSAGE PROFOND
6 APPRENTISSAGE FEDERE
Salah Zidi 96
APPRENTISSAGE FEDERE
Apprentissage Centralisé vs Apprentissage Fédéré
Salah Zidi 97
APPRENTISSAGE FEDERE
Salah Zidi 98
APPRENTISSAGE FEDERE
Salah Zidi 99
ET SI ON VEUT RÉCAPITULER …
KPPV
ARBRE DE DECISION 2
1 KPPV
3 NAIVE BAYESIENNE
ARBRE DE DECISION 2
1 KPPV
SVM 4
3 NAIVE BAYESIENNE
ARBRE DE DECISION 2
1 KPPV
MLP 5
4 SVM
NAIVE BAYESIENNE 3
2 ARBRE DE DECISION
KPPV 1
Salah Zidi 104
ET SI ON VEUT RÉCAPITULER …
6 K-MOYEN
MLP 5
4 SVM
NAIVE BAYESIENNE 3
2 ARBRE DE DECISION
KPPV 1
Salah Zidi 105
ET SI ON VEUT RÉCAPITULER …
APPRENTISSAGE PROFOND 7
APPRENTISSAGE AUTOMTIQUE
6 K-MOYEN
MLP 5
4 SVM
NAIVE BAYESIENNE 3
2 ARBRE DE DECISION
KPPV 1
Salah Zidi 106
ET SI ON VEUT RÉCAPITULER …
8 APPRENTISSAGE FEDERE
APPRENTISSAGE PROFOND 7
APPRENTISSAGE AUTOMTIQUE
6 K-MOYEN
MLP 5
4 SVM
NAIVE BAYESIENNE 3
2 ARBRE DE DECISION
KPPV 1
Salah Zidi 107
A completer …..
PREPARATION DE DONNEES
1 EXTRACTION DE DONNEES
2 SELECTION D’ATTRIBUTS