You are on page 1of 59

Y-NOV Ingésup M2 Développement

Mémoire de fin
d’études
Entre prouesses technologiques et volonté d’innovation, l’intelligence
artificielle dépassera-t-elle l’homme ?

GRENIER Florian / ATOS
2015/2016

Mémoire de fin d’études

Florian GRENIER

Page 1

Mémoire de fin d’études

Florian GRENIER

Table des matières
Remerciements........................................................................................................................4
Introduction............................................................................................................................5
1)

2)

Contexte ..........................................................................................................................7
1.1)

Qu’est-ce que l’intelligence ? .......................................................................................7

1.2)

Les processus cognitifs ................................................................................................8

1.3)

Qu’est-ce que l’intelligence artificielle ? ........................................................................9

Les différents courants d’intelligences artificielles ...........................................................11
2.1) Symbolisme ou Cognitivisme .........................................................................................11
2.2) Connexionnisme ...........................................................................................................13
2.3) Comportementalisme ....................................................................................................14

3)

Les types de développement ............................................................................................16
3.1) Les systèmes experts .....................................................................................................16
3.2) Algorithmes génétiques .................................................................................................18
3.3) Acquisition de connaissances, apprentissage automatique ..................................................20
3.4) Traitement automatique du langage naturel ......................................................................23
3.5) Calcul formel ...............................................................................................................24
3.6) Résolution de problèmes ................................................................................................26
3.7) Sémantique et indexation ...............................................................................................29
3.8) Intelligence artificielle collective et systèmes multi-agents .................................................31
3.9) Réseaux de neurones artificiels .......................................................................................33
3.10) Réalité virtuelle ..........................................................................................................35

4)

Les domaines d’applications ...........................................................................................36
4.1) Accessibilité et ergonomie .............................................................................................36
4.2) Banque ........................................................................................................................38
4.3) Finance ........................................................................................................................39
4.4) Militaire ......................................................................................................................40
4.5) Jeux ............................................................................................................................41
4.6) Médecine .....................................................................................................................43
4.7) Logistique ....................................................................................................................44
4.8) Robotique ....................................................................................................................44

5)

Dépasser l’homme ? .......................................................................................................45
5.1) Performances : Homme / Machine ..................................................................................45
5.2) La transhumanité et la nanorobotique ..............................................................................48
5.3) Artificial Narrow Intelligence .........................................................................................49

Page 2

Mémoire de fin d’études

Florian GRENIER

5.4) Artificial General Intelligence ........................................................................................49
5.5) Artificial Super Intelligence ...........................................................................................50
5.6) Les limites ...................................................................................................................51
5.7) Les risques ...................................................................................................................53
6)

Conclusion .....................................................................................................................56

7)

Webographie .................................................................................................................58

Page 3

Mémoire de fin d’études

Florian GRENIER

Remerciements
Je tiens à remercier mon Ecole Y-Nov pour m’avoir permis de suivre un enseignement
de qualité et une formation professionnalisante au sein de son groupe durant les trois années
que j’ai passé en son sein.

Je remercie également mon tuteur de la française des jeux Rémi Juanes et les autres
membres du socle du CDS d’Atos pour leur patience et leur disponibilité lorsque j’avais
besoins de leurs avis et conseils.
Je remercie vivement mon maître de stage Rémi Mertz pour ses disponibilités d’autant
plus que nous ne sommes pas dans la même zone géographique.
Enfin, je tiens à remercier ma famille et mes amis pour le soutient que j’ai pu avoir
durant la rédaction de ce document.

Page 4

Mémoire de fin d’études

Florian GRENIER

Introduction
Depuis l’enfance je cultive une passion pour la science-fiction, les robots et toutes les
possibles évolutions technologiques pouvant me faire rêver. Je me suis donc documenté, j’ai
lu beaucoup de revues scientifiques pour suivre les avancées technologiques. J’ai également
regardé un grand nombre de séries et de films sur le propos ne faisant qu’amplifier ma
passion.
C’est donc tout naturellement que j’ai orienté mes études dans la technologie pour
essayer d’être toujours à jour et à la pointe des nouvelles prouesses techniques. Aujourd’hui
en cinquième année d’école d’ingénieur en informatique, il me fallait trouver un sujet de
mémoire pour la fin de mon cycle, et évidemment, je cherchais un thème sur la technologie.
Je le voulais compliqué et d’actualité pour apprendre de ces recherches et de ce travail. J’ai
donc choisi un thème qui aujourd’hui passionne et fait beaucoup rêver : l’intelligence
artificielle.
Entre les nombreuses recherches des multinationales Google ou Apple dans cette
matière et les aspirations de l’humanité à la transhumance et l’automatisation des tâches, je
vais tenter de vous faire découvrir l’univers de l’IA. Pour ce faire, j’ai effectué de nombreuses
recherches et beaucoup de synthèse sur internet, un grand nombre de sources existent à des
niveaux de granularité scientifique différents. C’est un sujet vaste faisant intervenir beaucoup
plus de disciplines que le simple développement informatique. C’est un aspect de
l’informatique pouvant mener à de grandes découvertes ou bien à une optimisation de travaux
actuellement effectués par l’homme.
Je vais donc expliquer le concept d’intelligence, puis celui de l’intelligence artificielle.
Apres avoir bien compris ces principes, nous verrons l’historique de l’IA et ses différents
courants de pensées, ceci pour prendre conscience de l’ampleur du sujet et de son caractère
complexe, pluridisciplinaire et vaste.
On développera ces courants de pensées en faisant l’analyse des différents types de
développement pouvant être mis en place, les différentes manières d’appréhender cette
discipline. Nous aurons alors une grande partie d’explications, de définitions de termes et
d’étude de l’art nécessaire à la bonne compréhension des concepts et de leur portée
d’application dans notre monde.

Page 5

Mémoire de fin d’études

Florian GRENIER

Nous verrons donc ensuite les domaines d’application et les changements apportés par
cette nouvelle discipline dans notre quotidien, l’intelligence artificielle est partout autour de
nous et nous ne le soupçonnons pas le plus souvent. A la fin du mémoire, nous verrons
comment utiliser cet outil à bon escient et nous ferons la comparaison de performances
actuelles et futures de ces intelligences informatiques contrairement à notre intelligence
humaine.
Mais ceci n’est pas sans risque, nous verrons donc les limites et les craintes
qu’engendrent une telle technologie, et on essaiera également de proposer des mesures
préventives aux différents risques possibles pour le futur.

Page 6

Mémoire de fin d’études

Florian GRENIER

1) Contexte
1.1)

Qu’est-ce que l’intelligence ?
Avant toutes choses on peut se demander ce qu’est l’intelligence, comment la

formaliser et la caractériser (les différentes zones cognitives dans la Figure 1). Nous allons ici
expliquer les différents principes nécessaires à la compréhension de la suite du document.

Zones cognitives

Le mot « Intelligence » est un dérivé du latin « intelligentĭa » signifiant « faculté de
comprendre » et plus précisément la capacité à lier des éléments entre eux.

Elle est

l’ensemble des capacités mentales nous permettant de comprendre ce qui nous entoure, de
découvrir des relations nous permettant d’aboutir à une connaissance conceptuelle et
rationnelle celle-ci étant en opposition avec les sensations et émotions.
La compréhension est l’aboutissement d’un système de codification diversifié qui,
par la maîtrise du langage permet un raisonnement complexe nous permettant d’établir des
relations entre éléments. C’est également la définition de notre faculté d’adaptation, nous
permettant de gérer de nouvelles situations et notre capacité à traiter les informations pour
atteindre un objectif.
Afin d’atteindre ces objectifs, l’intelligence fera intervenir plusieurs facultés
cognitives que nous allons maintenant détailler pour comprendre par la suite les différentes
intelligences artificielles existantes, celles-ci étant basées sur notre connaissance du cerveau
humain, et inspirées de ces processus cognitifs.

Page 7

Mémoire de fin d’études

1.2)

Florian GRENIER

Les processus cognitifs

Cognitivisme

Un processus cognitif est « un cheminement par lequel un système traite une
information en y répondant par une action ». Ce traitement est le processus par lequel une
information est analysée et intégrée dans la base de connaissance du système, ceci dépendant
du mode de traitement et du niveau d’élaboration de l’information.
D’après les travaux en psychologie génétique de Jean Piaget, durant l’acquisition des
connaissances, les processus cognitifs utilisent deux mécanismes élémentaires : l’assimilation
et l'accommodation. L’assimilation est le fait d’intégrer une nouvelle situation à une
ensemble auxquels une règle existe déjà, ici on ne change pas d’action mais on étend notre
champ de connaissances. Pour ce qui est de l'accommodation, on modifie justement une
conduite préexistante pour s’adapter à une situation connue mais dont les méthodes
habituelles de résolution sont obsolètes et ne suffisent plus, c’est le processus d’adaptation.
On peut regrouper les processus cognitifs comme suis :
-

Perception, Sensation, Attention

-

Catégorisation, Reconnaissance, Raisonnement et Prise de décision

-

Représentation, Mémoire et Langage

-

Oubli, Emotions et Apprentissage

-

Les phénomènes collectifs et individuels

Maintenant que nous avons défini les processus cognitifs, nous allons voir comment
notre compréhension de ces mécanisme on put permettre l’émergence d’un tout nouveau
domaine de recherche : l’intelligence artificielle.

Page 8

Mémoire de fin d’études

1.3)

Florian GRENIER

Qu’est-ce que l’intelligence artificielle ?

Symbole de la représentation en informatique du cerveau

C’est une discipline scientifique relative aux traitements des connaissances et au
raisonnement dans le but de permettre à une machine d'exécuter des fonctions normalement
associées à l’intelligence humaine. L’intelligence artificielle tente de reproduire les
processus cognitifs humains dans le but de réaliser des actions « intelligentes ». Le
scientifique Marvin Lee Minsky, pionnier de la discipline, défini l’intelligence artificielle
comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont,
pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles
demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel,
l’organisation de la mémoire et le raisonnement critique ».
La plupart des définitions de l’IA sont proches et respectent globalement la définition
de Minsky, mais elles peuvent diverger sur les points suivants :
-

Certaines définitions lient l’IA à un aspect humain de l’intelligence tandis que d’autres
la lient à un modèle idéal de l’intelligence : la rationalité.

-

D’autres définitions s'attardent plus précisément sur la notion d’avoir toutes les
apparences de l’intelligence ou alors un fonctionnement interne ressemblant
uniquement à celui de l’être humain et sa rationalité.
A l’origine, la première personne à parler « d’Intelligence Artificielle » est

probablement le scientifique et inventeur Alan Turing dans son article “Computing Machinery
and Intelligence” publié en Octobre 1950 dans le magazine Mind. Dans cet article, le
mathématicien nous parle pour la première fois du “Test de Turing” dans une tentative de
définition d’un standard permettant de qualifier une machine de « machine consciente ».

Page 9

Mémoire de fin d’études

Florian GRENIER

On considère que le domaine de recherche fut alors crée lors d’une conférence au
Dartmouth College en 1956 à laquelle assistaient les précurseurs du domaine. L’intelligence
artificielle se développa donc grandement aux Etats-Unis :
-

Université de standford : John McCarthy

-

MIT : Marvin Minsky

-

Université Carnegie-Mellon : Allen Newell et Herbert Simon

-

Université d’Edimbourg : Donald Michie

En France, à la même époque, nous avions le polytechnicien Jacques Pitrat, pionnier en
intelligence artificielle symbolique.
Deux grandes versions de l’intelligence artificielle sont imaginées : l’ia forte et l’ia
faible.
L’intelligence artificielle forte représenterait une machine capable non seulement de
faire preuve d’un comportement intelligent, mais plus précisément d’éprouver des émotions et
une réelle conscience de soi.
L’intelligence artificielle faible, quant à elle, correspondrait à une approche
pragmatique d’ingénieur, on cherche à construire des systèmes de plus en plus autonomes, en
simulant de l’intelligence, mais la machine n'exécute qu’une suite d’instructions plus ou
moins complexes.

En intelligence artificielle, plusieurs courants de développement existent, nous allons
maintenant voir ces différentes formes de pensées et leurs caractéristiques.

Page
10

Mémoire de fin d’études

Florian GRENIER

2) Les différents courants d’intelligences artificielles
Dans ce chapitre, je vais aborder les différents modèles de pensées liés à l’intelligence
artificielle. Je tenterais de vous les expliquer et de vous faire comprendre les différences qu’il
existe entre eux. Vous pourrez, par la suite, vous identifier à l’un de ces modèles, et mieux
comprendre le cheminement qui a pu mener à de telles découvertes.

2.1) Symbolisme ou Cognitivisme

Fonctionnement du cognitivisme

Ce modèle d'intelligence artificielle travaille sur des structures de symboles, ceux-ci
n’ont pas de signification pour la machine. Le système va reconnaître les formes de ces
symboles puis leur signification sera attribuée par l'extérieur. La création de ce courant de
développement de l’IA vient d’une simple question que l’on peut se poser : Peut-on réduire
les processus cognitifs à la manipulation de symboles fondée sur leurs formes ?
Depuis le livre “Mind, brains and science” écrit par J.Searle en 1980, la discussion
contemporaine autour du problème d’ancrage des symboles se poursuit périodiquement et fais
l’objet de nombreuses recherches. Dans son article, Searle part d’un postulat comme quoi un
système incapable de remplir des symboles de sens peut quand même engendrer un
comportement apparemment intelligent, de ce fait il expose une faiblesse du test de Turing,
celui-ci ne serait pas totalement convainquant car déniant l’affirmation que toute intelligence
s’affirme via un système symbolique.
Page
11

Mémoire de fin d’études

Florian GRENIER

Dans son livre La société de l’esprit, Marvin Minsky, s’appuie sur des observations du
psychologue Jean Piaget. Il envisage le processus cognitif comme une compétition d’agents
fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Pour
mieux comprendre, on peut citer les exemples suivants de Piaget :
-

L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a
d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le
fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle
du diamètre du verre, et arbitre de son mieux entre les deux. Il ne manipule ici que des
symboles, il redéfini ses acquis pour s’adapter à la situation.

-

Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la
réduction de plusieurs objets temporairement représentés à une même boule de pâte
l’incite à dégager un concept de conservation de la quantité de matière.
Finalement, ces jeux d’enfants aux premiers abords futiles se révèlent essentiels à la

formation de l’esprit, permettant de dégager quelques règles pour arbitrer les différents
éléments d’appréciation qu’il rencontre, par essais et erreurs. On peut donc résumer le
symbolisme à un courant de pensées permettant de recréer des fonctionnements cognitifs
par le traitement de symboles et la représentation de ceux-ci.

Le traitement symbolique est une approche prometteuse, mais comme tout courant de
pensée, il a ses qualités et ses défauts. Nous allons maintenant nous familiariser avec le
connexionnisme, qui lui, s’axe sur une réflexion basée sur des connexions, bien plus proche
de la biologie que de la psychologie.

Page
12

Mémoire de fin d’études

Florian GRENIER

2.2) Connexionnisme
De nouvelles approches intéressantes voient le jour avec l'étude des réseaux distribués,
dans lesquels l'imitation du cerveau par l'ordinateur, se retrouve au niveau structurel de base :
une multitude d'agents vont permettre de traiter l'information complexe en un temps bref
grâce à des techniques d'apprentissage du réseau.

Différents types de connexions neuronales artificielles possibles

Chaque unité se conduit comme un neurone, transmet le message lorsqu'il est excité et
renforce ses connexions à chaque utilisation. Plusieurs variantes vont naître de cette approche
connexionniste, qui donneront d'excellents résultats en matière d'apprentissage, de
reconnaissance du langage ou d'une image, dans le traitement de problèmes de fond à nature
statistique (logique floue), mais également en termes de robustesse structurelle et
fonctionnelle.

Le principe de base est que les phénomènes mentaux peuvent être représentés par de
simples unités interconnectées. La forme des unités et des connexions varient en fonction
des modèles, on imaginera que les unités du réseau sont les neurones et les connexions seront
les synapses. Pour l’apprentissage du langage, on dira que chaque unité est un mot et chaque
connexion est une relation de similarité sémantique ou lexicale.

Comme présenté ci-dessus, l'implémentation la plus répandue est celle des réseaux de
neurones. Les réseaux neuronaux ayant une approche connexionniste auront deux principales
caractéristiques :
-

Chaque état peut se représenter via un vecteur à x dimensions représentant les
valeurs seuils d’activation des unités neuronales.

Page
13

Mémoire de fin d’études

-

Florian GRENIER

Le réseau peut apprendre et adapter son appréhension de l'évènement en
modifiant à la volée les poids des connexions entre les différents neurones, ce
qui aura pour effet de modifier la pertinence de la connexion. C’est ainsi que
l’on adaptera notre réseau de neurone pour qu’il approche de plus en plus son
comportement objectif.

Malgré ces deux points communs, les modèles de réseaux de neurones basés sur le
connexionnisme peuvent différés par :
-

La définition de l’activation d’un neurone : de multitude manières permettent de
définir l’activation d’un neurone comme dans une machine de Boltzman, ici
l’activation est définie comme la probabilité de déclencher un potentiel d’action. Ce
sera une fonction logistique prenant en paramètres la somme des entrées de l'unité
courante.

L’approche connexionniste peut se représenter comme une boite noire autonome. Mais
elle ne prend pas en compte les interactions du système avec son milieu. C’est en ce point que
le comportementalisme se distingue des autres mouvements de pensées.
2.3) Comportementalisme

Le comportementalisme, aussi appelé béhaviorisme ou behaviorisme, est un approche
psychologique consistant à se concentrer sur le comportement observable de l’individu,
celui-ci ayant une attitude dictée par l’histoire et les interactions qu’il aura pu avoir avec son
milieu.
Historiquement, le comportementalisme est née d’une réaction aux approches dites :
« mentaliste » qui, voyant dans le mental la cause d’une action, défendaient la méthode
d’introspection pour accéder à la compréhension de l’esprit.
C’est en 1913 que John Broadus Watson établit les principes de base du béhaviorisme
(et en invente accessoirement le nom).
La plupart des théories sur l’apprentissage ont trois grandes variables, savoir :
-

L’environnement qui stimule (que nous noterons S comme “stimuli”).

-

L’organisme qui est stimulé (que nous noterons I comme “individu").

-

La réaction de l’individu aux stimuli (que nous noterons R comme “réaction”).
Page
14

Mémoire de fin d’études

Florian GRENIER

On peut donc écrire le schéma suivant :
-

S -> I -> R

Mais avec l’approche du comportementalisme on va nier la réalité de l’individu et de son
fonctionnement interne, en effet, nous allons ici chercher les processus par lesquels
l'environnement (S) contrôle le comportement. On considère alors l’individu comme une
“boite noire” et on peut reformuler le schéma avec :
-

S -> R

Le problème avec cette représentation est qu’elle n’explique que les apprentissages liés à des
stimulations inconditionnelles. On doit alors ajouter deux nouvelles variables :
l’environnement et les conséquences sur l’organisme, celles-ci pouvant être positives ou
négatives, et modulées par le contexte (noté C). On aura donc :
-

S -> R -> C

Ici on obtient un conditionnement opérant qui, à la différence d’un conditionnement classique,
présuppose un être actif dans son environnement.
Nous avons vu les trois plus grand courants de pensées autour de l’intelligence
artificielle mais ce ne sont pas les seuls, j’ai choisi ceux-là car se sont les plus importants et
pertinents.
Après avoir introduit le concept d’intelligence puis défini les différents courants de
pensées relatifs à l’intelligence artificielle, nous allons maintenant voir les différents types
d’intelligence artificielle que nous connaissons aujourd’hui. Nous verrons par la suite leur
domaine d’applications.

Béhaviorisme

Page
15

Mémoire de fin d’études

Florian GRENIER

3) Les types de développement
L’intelligence artificielle étant un domaine extrêmement large. Nous avons de bien
nombreuses façons de s’en servir, de la plus simpliste à la plus compliquée, et chacune des
méthodes de développement à une fonction spécifique.
Nous allons commencer par le développement adapté à l’exécution de taches formelles
expertes d’un domaine précis.
3.1) Les systèmes experts
Un système expert représente un outil

capable de reproduire la réflexion et les

mécanismes cognitifs d’une personne experte dans un domaine donné. Il s’agit d’une des
voies tentant d’aboutir à une intelligence artificielle forte. Le système expert sera donc un
logiciel informatique capable de répondre à des questions données en faisant un raisonnement
par déduction à partir de faits et de règles universelles. On pourra l’utiliser dans les outils
d’aide à la décision comme le système DENDRAL permettant d’identifier des constituants
chimiques.
Un système expert se compose principalement de trois parties :
-

Une base de règles

-

Une base de faits

-

Un moteur d’inférence

Fonctionnement d’un système expert

Page
16

Mémoire de fin d’études

Florian GRENIER

Le but du moteur d’inférence est de traiter les faits avec la base de règles pour
parvenir à la production de nouveaux faits permettant d’arriver à la réponse à la question
experte posée. Pour parvenir à une telle déduction, les moteurs d’inférence implémentent des
mécanismes de logique formelle basés sur un raisonnement déductif :
-

Si E1 est vrai (premier évènement) et si on sait que E1 implique E2 (via règle), alors
on peut dire que E2 est vrai (nouvel évènement).

Il y a deux manières d’appréhender les systèmes experts, via une logique des propositions ne
présentant que des évènements vrais ou faux, ou bien via une logique des prédicats facilement
manipulables par des algorithmes connus.
Afin que le système expert puisse être efficace, il faut mettre en place des règles de
cohérence et donc éviter :
-

Les incompatibilités : si nous avons une règle qui entraine l'évènement C via les
évènements A et B, on ne pourra pas avoir d'évènement X avec A et B comme origine
en suivant une règle équivalente. En d’autres termes, un couple d'évènements A et B
ne pourra toujours donner que C en sortie en appliquant une règle définie.

-

La redondance : si on applique le même raisonnement déductif à deux évènements,
on ne pourra pas avoir le même résultat sauf si l’on modifie les coefficients de
certitude de la règle entre les exécutions.

-

Le bouclage : partant d’un évènement A comme source, on ne doit pas pouvoir
revenir à ce même évènement en appliquant les règles du système, il ne faut tout
simplement pas créer de boucle infinie de déduction.
Pour fonctionner, nous avons vu qu’un système expert nécessite une base de faits et

une base de règles face à ces faits, mais on peut se demander comment déterminer et créer
cette base de règles et de faits ? Il suffit d’utiliser les connaissances du développeur du
système et d’inculquer directement en dur la liste de faits et de règles, mais ce ne sera jamais
une base autant exhaustive que l’on pourrait le souhaiter. Il faut arriver à déterminer le
comportement d’un expert face à un problème spécifique et sa manière de le résoudre, on
recherche ici l'expérience, la connaissance pratique de l’expert, et non la simple théorie que
l’on retrouve dans des livres.
On pourra alors ajouter un système d’apprentissage automatique à notre système
expert pour permettre d'acquérir des connaissances plus pertinentes se rapprochant le plus
possible d’un réel expert, on ferra cela par le biais d’algorithmes génétiques.
Page
17

Mémoire de fin d’études

Florian GRENIER

3.2) Algorithmes génétiques

C’est une forme d’algorithme dite « évolutionniste » dont le but est de résoudre des
problèmes d’optimisation ou de trouver des solutions lorsqu’il n’existe pas de méthode
exacte, et tout cela dans un laps de temps raisonnable de façon intelligente. Pour parvenir à
ces performances, on utilisera le mécanisme de sélection naturelle et de générations sur des
populations d’agents travaillant sur le problème.

Pour bien comprendre le fonctionnement de cet algorithme, il faut faire des analogies
avec la biologie, nous allons alors définir préalablement trois termes importants pour la bonne
compréhension de la suite du document :
-

Sélection : c’est le fait de déterminer et de ne garder que les individus les plus

performants ou laissant présager le plus gros potentiel de hautes performances. Cette
sélection se fait donc au moment de la reproduction, les plus adaptés gagnent la course
tandis que les autres sont évincés avant la fin, ce qui permet d’améliorer l’adaptation
de la lignée. On pourrait presque penser à la sélection naturelle mais il existe une
petite différence, ici le critère de sélection est déterminé par l’homme un peu comme
avec les agriculteurs et leurs légumes, on parlera alors de sélection artificielle.
-

Enjambement : au niveau biologique, c’est l’instant ou deux chromosomes se

combinent pour donner de nouveaux chromosomes lors de la reproduction. Le
mélange peut se faire suivant un ou plusieurs points de croisement. La plupart du
temps en algorithmie génétique, nous n’aurons qu’un seule point de croisement
déterminé par la technique de recombinaison et le problème à résoudre.
-

Mutations : c’est le fait qu’un gène aléatoire peut être a tout moment substitué

à un autre. On définira un pourcentage d’apparition très faible (0.001 < Taux < 0.1)
pour garder les principes de sélection et d’évolution. Il reste néanmoins nécessaire de
garder ces mutations afin d’éviter une convergence finie des générations et de
permettre d’introduire un facteur aléatoire pouvant mener à la sérendipité.

Maintenant que ces principes sont plus clairs, on peut expliquer le fonctionnement de ces
algorithmes et pourquoi ils sont aussi puissants. C’est ces algorithmes qui arrivent à battre des
joueurs professionnels d’échec ou de go !

Page
18

Mémoire de fin d’études

Florian GRENIER

Nous commençons alors avec une population d’individus de base se composant
chacun de chaines de caractères, ceci représentant les chromosomes (d’autres techniques de
représentation des données existent, mais nous choisirons celle-là pour expliquer ici). La liste
des agents initiaux est générée aléatoirement pour avoir une diversité significative et des
points de recherches radicalement différents, permettant d’aboutir à une plus grande diversité
de réponses possibles au problème donné. Ensuite on analyse et on pondère chaque individu
en fonction de sa capacité à résoudre le problème, puis on effectue la sélection sur le groupe.
Etant donnée la grande diversité des techniques de sélections possibles, je vais ici vous
expliquer les principales :
-

La sélection par rang : ici, la sélection consiste à ne garder que les individus

ayant le meilleur score d’adaptation, l’aléatoire n’entre donc pas en jeu dans la
fonction de sélection mais est effectif au niveau des mutations et des rangs
d’adaptation.
-

Probabilité de sélection proportionnelle à l’adaptation : contrairement à la

sélection par rang, ici nous allons faire intervenir un paramètre aléatoire dans la
sélection. Chaque élément aura une chance d’être tiré au sort proportionnel à son
degré d’adaptation mais cela reste du tirage au sort.
Une fois les membres sélectionnés, nous allons effectuer les opérations d’enjambement et de
mutations sur une faible quantité d’individus choisis aléatoirement. Puis on relance le procédé
de sélection etc…
Ces actions seront effectués un grand nombre de fois pour simuler l’évolution qui n’es
significative que sur un très grand nombre de générations. Au bout d’un nombre défini de
générations, le procédé sera stoppé, ou bien lorsque les performances d’un individu auront
dépassé un ratio recherché.
Beaucoup d’autres principes d’optimisation peuvent être introduits tels que l’inclusion
d’individus n’étant pas de la même descendance (générés aléatoirement) offrant ainsi une
probabilité d’éviter la convergence locale des résultats accrue.

Page
19

Mémoire de fin d’études

Florian GRENIER

Fonctionnement récursif de l’algorithme

Avec ce type d’algorithmes, nous pouvons « apprendre » à un programme à résoudre
un problème complexe (tels que les échecs) n’ayant pas de solution absolue (ou celle-ci étant
trop longue à trouver, comme dans le jeu de go).
Il existe de nombreuses méthodes pour « faire apprendre » à un programme, je vais
maintenant vous les énumérer et vous les expliquer.
3.3) Acquisition de connaissances, apprentissage automatique
Avant tout, il est important de donner une définition de la connaissance. C’est une
notion complexe et n’ayant pas de définition avérée. Il a été défini par Christian Godin que la
connaissance est la « faculté mentale produisant une assimilation par l'esprit d'un contenu
objectif préalablement traduit en signes et en idées », il ajoute « Résultat de cette opération, la
connaissance est une possession symbolique des choses.
Nous allons maintenant voir par quel procédés nous arrivons aujourd’hui à faire
apprendre aux programmes, leur inculquer des connaissances leurs permettant de se
perfectionner. Cette discipline de l’intelligence artificielle se nomme l’apprentissage
automatique (ou apprentissage statistique) : « machine learning » en Anglais. Elle permet
l’analyse, la conception, le développement et l'implémentation de méthodes permettant à une
machine de se modifier, d’évoluer par des processus systématiques leurs permettant alors de
remplir des tâches impossibles à effectuer avec des algorithmes classiques.

Page
20

Mémoire de fin d’études

Florian GRENIER

Avec l’apprentissage automatique, on peut travailler sur des courbes ou des graphes
mais aussi sur de la classification, c’est un modèle permettant potentiellement d’apprendre
tout ce que l’on souhaite, l’imagination est la seule limite de l’apprentissage automatique
(avec peut-être le hardware, mais on reviendra sur les limites de l’ia plus tard). En principe,
les algorithmes utilisés permettent à un système d’adapter ses analyses, de modifier son
comportement en fonction de l’analyse de données provenant de Bases de Données ou de
capteurs (pour les robots).
La plus grande difficulté réside dans le fait que la grande masse de couple
action/réaction ou paramètre/comportement devient très rapidement énorme et impossible à
décrire (c’est « l’explosion combinatoire »). Il faut alors doter le programme d’une fonction
d’ajustement lui permettant de simplifier son processus d’apprentissage, et accessoirement lui
permettant d’évoluer, de modifier son fonctionnement en fonction de la modification des
données dans la base, le programme remettra en question ses acquis et modifiera son
comportement si celui-ci n’est plus adapté.
Les différents types d’apprentissages sont :
-

L’apprentissage supervisé : nous avons deux phases, la phase d’apprentissage et la
phase de tests. On donne un environnement avec des classes prédéterminées et des
exemples connus, un expert aura étiqueté les bonnes classes sur les exemples puis le
système va alors tenter de déterminer le modèle de données via une analyse des
exemples. Par la suite, le système tentera de prédire la classe d’un élément non
étiqueté, il est important de noter que les meilleurs performances ne se retrouvent pas
sur les modèles binaires (en disant que tel élément appartient à telle classe), mais sur
des modèles probabiliste retournant un pourcentage de chances d’appartenir à telle ou
telle classe, on pourra à ce moment inclure un seuil de déclenchement disant que si
cette probabilité dépasse X%, alors on considère que l’on est à 100% sur de
l’appartenance de l’objet à la classe.

-

L’apprentissage non-supervisé : ici nous avons des exemples sans classe ni étiquette
préalable, nous n’avons donc plus besoin d’expert pour ce type d’apprentissage. Le
programme va devoir calculer la similarité des exemples via une fonction de distance
entre paires d’exemples. Le système va alors classer par similarité les exemples dans
des groupes et des groupes de groupes et ce sera a l’opérateur de déterminer le sens de
ces groupes. Ce type de classement étant hautement probabiliste, de nombreux outils
mathématiques existent déjà. A savoir que ce mode d’apprentissage peut être une
grande source de sérendipité (le fait de faire une découverte de manière inattendue).
Page
21

Mémoire de fin d’études

Florian GRENIER

Fonctionnement simplifié de l’apprentissage

Les modèles suivants ne sont que des dérivations des deux grands modèles précédents.

-

L’apprentissage semi-supervisé : on utilise ce modèle lorsqu’il nous manque des
étiquettes ou classes, on utilisera des exemples non classés et on essaiera de voir par
rapport aux exemples classés les similarités ou alors on créera de nouveaux groupes
sous-jacents aux existants.

-

L’apprentissage partiellement supervisé : il ressemble à l’apprentissage semisupervisé, il est utilisé lorsqu’un exemple n’appartient ni à A ni à B, on cherchera
alors son étiquette.

-

L’apprentissage par renforcement : le programme apprendra ici un nouveau
comportement en fonction d’observations, c’est à dire que l’action qu’aura
l'algorithme sur l’environnement retournera une valeur qui guidera le modèle
d’apprentissage.

-

L’apprentissage par transfert : c’est la capacité d’un programme à reconnaître des
connaissances apprises à partir d’anciennes tâches et les appliquer sur de nouvelles
tâches ou domaines ayant des similitudes.

Page
22

Mémoire de fin d’études

Florian GRENIER

Pour effectuer un apprentissage de qualité, plusieurs facteurs entrent en compte :
-

Le nombre d’exemples : plus il y a d’exemples, plus l’apprentissage sera long mais
plus il sera de qualité, au contraire, moins il n’y en a, moins ce sera long mais
l’apprentissage ne sera pas qualitatif.

-

Le nombre et la granularité des étiquettes/attributs : plus nous aurons d’attributs,
plus la fonction de distance entre les paires d’exemples sera efficace.

-

Le pourcentage de données manquantes et renseignées.

-

Le « Bruit » : c’est le nombre de valeurs non conformes ou altérées pouvant mener à
confusion, ce sont ces valeurs pouvant amener à de grands faux-positifs et même une
erreur totale de classement de la part de l’algorithme.

A savoir que les modèles d’apprentissage automatiques sont tous plus ou moins inspirés
des êtres vivants, l’apprentissage automatique est peut être un sous-domaine de l’informatique
mais fait intervenir les sciences cognitives, les neurosciences, la biologie ainsi que la
psychologie.
Lorsque l’on développe une IA, il peut être intéressant de dialoguer avec, le chapitre
suivant expliquera le fonctionnement des méthodes de Traitement Automatique du Langage
Naturel (TAL ou TALN)

3.4) Traitement automatique du langage naturel
Ce type de développement est l’application de programmes et de techniques
informatiques au langage humain, aussi appelée ingénierie linguistique. C’est avec le test de
Turing et les machines tentant de le relever, que les premiers essais de TAL furent tentés. Le
test de Turing (Allan Turring dans « Computing machinery and intelligence ») est un test
ayant pour ambition de révéler si une machine est « intelligente » ou non. On va faire discuter,
via une conversation en temps réel, une machine et un humain. Le test se révèle positif si
l’humain est incapable d’affirmer à 100% s’il a une machine ou un humain en face de lui. En
1954, l'expérience de traduction russe/anglais de Georgetown fait également intervenir du
TALN et est le prémice de la traduction automatique. Vers 1965, Joseph Weizenbaum
développe le programme ELIZA ; étant une simulation de la psychothérapie rogérienne
consistant à mettre l’accent sur l’empathie, l’authenticité et le non-jugement.
Page
23

Mémoire de fin d’études

Florian GRENIER

Cette approche à l'avantage de ne pas prendre en compte la pensée ou les émotions
humaines, ce qui rend le programme plus facilement crédible. Par la suite ce sont de
nombreux chatterbot (robots de discussion) et de nombreuses recherches sur la traduction
automatique qui monopolisèrent les chercheurs, au fur et à mesure de l’évolution des
puissances de calcul, les programmes devinrent de plus en plus performants.

Schéma du TALN

On peut faire des analyses statistiques dans le TAL permettant de désambiguïser des
phrases très longues pouvant mener à des milliers voir millions d’analyses possibles. On
utilisera ici de l’apprentissage automatique sur le système pour qu’il fasse de moins en moins
de confusions de sens.
Le TAL à de nombreuses applications telles que la production ou la modification de
texte (correction orthographique, traduction automatique ou encore résumé automatique de
texte etc…), le traitement du signal comme la reconnaissance de la parole ou bien
l’extraction d’information avec l’annotation sémantique ou la classification de documents.
Comme j’ai pu le dire au début du document, l’intelligence artificielle ne sert pas
seulement à optimiser des processus mais elle permet également de formaliser des actions afin
de les exécuter le plus rapidement possible. Le calcul formel fait partie de cette catégorie.
3.5) Calcul formel

Si on adapte la technique de traitement du langage aux mathématiques on obtient le
traitement informatique du langage mathématique. Le calcul formel, au contraire du calcul
numérique, traite des expressions symboliques.

Page
24

Mémoire de fin d’études

Florian GRENIER

C’est par un procédé de transformation des expressions mathématiques (traduction)
que les algorithmes tenteront de résoudre les différentes équations qui lui sont données. Par
exemple, calculer la valeur d'une fonction réelle en un point est du calcul numérique alors que
calculer la dérivée d'une fonction numérique, déterminer sa primitive, simplifier son
expression est du calcul formel. De nombreux logiciels très puissants sont commercialisés
pour exécuter tous les calculs formels et bien d‘autres nécessaires aux activités scientifiques et
techniques tels que MAPLE ou MATHEMATICA. Ces outils serviront principalement
d’assistants de preuve, apportant une aide aux mathématiciens, ce qui peut également
découler sur des outils de raisonnement logique au sens plus large du terme pour la
vérification des programmes par exemple.

Capture d’écran du logiciel MATHEMATICA

A la frontière entre les systèmes experts et les réseaux de neurones, nous avons la
résolution générale de problèmes. C’est un aspect pouvant regrouper plusieurs types de
développement.

Page
25

Mémoire de fin d’études

Florian GRENIER

3.6) Résolution de problèmes

Cette approche consiste à analyser, formaliser et résoudre des problèmes concrets. La
résolution de problème est très vaste, se déplacer d’un endroit à un autre est une résolution de
problèmes et uniformiser la physique quantique et la relativité générale en est un autre. Un
problème est donc une tâche qu’il faut analyser, puis il faut dégrossir les réponses possibles
afin de parvenir à une conclusion satisfaisante. A savoir que la résolution de problèmes est
une des champs de recherche de l’intelligence artificielle le plus fondamental, les premiers
chercheurs tentèrent de créer des algorithmes permettant de résoudre n’importe quel
problème. C’était le but du “General Problem Solving” mais les chercheurs se sont rendus
compte de leurs actuelles incapacités à faire cela et ont donc été obligé de segmenter les axes
de recherche.

Fonctionnement grossier de la résolution de problèmes

La plus grande difficulté dans la résolution de problèmes est “l’espace de recherche de
solutions”, il est souvent immensément vaste et il faut alors implémenter des méthodes
permettant de le réduire en ne cherchant pas dans les directions inutiles. Il est également
intéressant de faire des rapprochements avec des problèmes similaires pour ne pas reproduire
les mêmes erreurs et afin de mieux modéliser la représentation du problème dans le système.
En dehors de l’industrie, la résolution de problème est très populaire pour les jeux (jeu
de go, échecs etc…). Il est important de noter qu’il faut différencier les algorithmes
euristiques de ceux faisant simplement intervenir la force informatique brute.

Page
26

Mémoire de fin d’études

Florian GRENIER

Lorsque l’on cherche à battre le champion du monde d'échec avec un programme, il y
a peu d'intérêt à lui mettre le plus puissant des ordinateurs en face de lui qui testera toutes les
possibilités de coups (force informatique brut, long et non optimisé). Mais il est bien plus
intéressant d’essayer de concevoir une IA plus “intelligente” étant plus rapide et plus
performante pour des coûts réduits en énergie.
Le mode de fonctionnement de l’esprit humain utilise bien d’autres méthodes que les
méthodes logico-mathématiques auxquelles on pourrait penser. Il faut prendre en compte
l’imagerie sensorielle, et les analogies, on réagit et on se guide souvent par des émotions ou
par rapport à des analogies avec des situations connexes dans le passé. L‘informaticien
Douglas Hoftstadter à développer de nombreux programmes basés sur une approche
d’analogies comme le programme CopyCat qui a la capacité de se modifier lui-même au fur et
à mesure des questions qui lui sont posés, certains pensent même que ce programme pourrait
être un précurseur de l’IA forte ! Hoftstadter a également crée un autre programme avec Harry
Fondalis qui se nomme Phaeaco. Ce logiciel est capable de résoudre des problèmes de
Bongard : ce sont des problèmes présentés en deux pages, sur la page de gauche, six images
ayant toutes un point commun différent de celui des six images de droite. Pour trouver les
caractéristiques communes, le logiciel va être guidé par « idées » qu’il peut avoir à un
certain moment sur les différents concepts possibles.
Pour passer à l’étape suivante de l’intelligence en informatique, les chercheurs pensent
qu’il faudrait trouver un moyen de leur apprendre l’introspection, afin qu’ils comprennent les
raisons de leurs choix pour pondérer correctement les actions qu’ils entreprennent. Ils leur
manqueront aussi la notion de « but » pour arriver à travailler sur une intelligence artificielle
forte.
Un dernier programme intéressant à citer et utilisant une approche heuristique est
Eurisko. Ce programme est encore considéré comme l’un des plus intelligent jamais conçu, il
était capable de démontrer des théorèmes en explicitant ses modes de raisonnement, il était
même capable de proposer des suggestions. Eurisko a été banni d’un jeu (le « The Traveller
Trillion Credit Squadron ») qu’il gagnait tout le temps à cause de ses performances beaucoup
trop élevées par rapport au niveau des autres concurrents.
Pour s’approcher au plus du fonctionnement d’un homme, les chercheurs en IA ont du
se pencher sur l’analyser des flux visuels et sur la reconnaissance des formes. Le chapitre
suivant traitera du fonctionnement de cette discipline.
Page
27

Mémoire de fin d’études

Florian GRENIER

3.7) Reconnaissances de formes ou vision artificielle

Les disciplines relatives à la vision artificielle

L’être humain arrive à reconnaître des formes et comprendre son environnement sans
en avoir la moindre conscience, c'est un mécanisme automatique qui s’effectue sans besoin de
conscience mais qui sollicite une très grande partie du cerveau. Ce qui prouve que ce
mécanisme a beau être devenu automatique, il n’en reste pas moins compliqué. Le processus
de construction de la perception depuis les informations renvoyés par nos sens fait
intervenir la quasi-totalité de notre cerveau.
Dès la création de l’IA, la volonté des chercheurs était d’équiper les machines de
dispositifs d’émission et de réception de signaux divers, de se rapprocher le plus possible des
performances humaines. Mais beaucoup de difficultés ont été rencontrées comme la diversité
des méthodes de traitement du signal ou alors de nombreux problèmes analogiques ou
logique.
Si on regarde la reconnaissance de la parole, l’idéale pensée était de pouvoir
reconnaître les paroles d’un locuteur quelconque, mais le processus est hautement compliqué
rien que par le fait que la compréhension d’un mot ne relève pas uniquement de connaissances
langagières mais aussi du contexte, du but ou du monde dans lequel vit le sujet.

Page
28

Mémoire de fin d’études

Florian GRENIER

La reconnaissance de l’écriture fut plus simple sauf pour les écritures manuscrites ou
l’on aura une grande part d'ambiguïté due au côté unique de l’écriture de chaque personne. La
reconnaissance des visages à partir de photo ou de modèle vivant est importante pour les
systèmes sécuritaires ou pour que les robots reconnaissent les visages. Pendant longtemps,
cette approche fut considérée comme impossible, mais les chercheurs se sont rendu compte
qu’un cerveau de nourrisson le faisait très simplement. Aujourd’hui le modèle fonctionne
parfaitement et peut aussi donner des résultats supérieurs à ceux d’un être humain.
On ne va pas seulement essayer de reconnaître des formes mais on peut également
rechercher des modèles, des motifs ou des groupes. On peut donc tenter de détecter des objets
d’une certaine catégorie dans une image ou une vidéo. Pour ce faire, il faudra passer par
certaines étapes cycliques/récursives. On commencera par déterminer quelles données
devraient permettre de séparer ce que l’on recherche du reste qui ne nous intéresse pas. Par la
suite on récolte, on nettoie et on analyse les données afin de pouvoir en modéliser une
frontière discriminante pour notre objet cible par rapport au reste. Puis on terminera par
essayer de déterminer la région de l’image correspondant à ce que l’on recherche ou alors
au moins dire si notre objet est contenu ou non dans l’image.

Une fois que nous savons reconnaitre des images, que nous avons appris à décoder des
sons, il nous faut un système de classification. Il faudra ordonner, prioriser, pondérer et
classer les résultats de nos analyses. Il existe un domaine entier consacré à ce travail et c’est le
domaine de la sémantique et de l’indexation que je vais vous expliquer dans le chapitre
suivant.
3.7) Sémantique et indexation

Problème :
Ce domaine vient d’une constatation simple :
-

Aujourd'hui les ressources multimédia disponibles sur un ordinateur sont

nombreuses et volumineuses.
-

Elles sont difficilement accessibles car manque d’indexation et de classement.

Il reste facile mais long à un humain pour indexer manuellement une masse de ressources
multimédia c’est pour cela que l’indexation automatique à vue le jour.

Page
29

Mémoire de fin d’études

Florian GRENIER

Solution :

On commence alors par extraire les données descriptives (métadonnées) du
document. Ces métadonnées peuvent être un grand nombre de choses tel que des segments
temporels ou des régions toutes descriptives et structurant du document. Pour ce faire on
utilisera un modèle de reconnaissance de formes ou alors un modèle basé sur l’apprentissage
des patterns à reconnaître dans le document en question.
On pourra utiliser des modèles “stochastiques”, permettant de caractériser l’évolution
dans le temps ou l’espace du contenu. Ceci permettant à la machine de « localiser » tel ou tel
évènement. On pourra également utiliser un système expert qui transcrit ce que l’on cherche
en base d’heuristiques, permettant de spécifier l’analyse du document sur un objet précis mais
il reste certains objets impossibles à déterminer ainsi.

Si on essaie de classifier les publicités des autres programmes diffusés sur une chaîne
de télévision, on le fera via apprentissage dirigé pour que le programme en ressorte les
caractéristiques spécifiquement discriminantes aux autres programmes. On pourra
également se retrouver face au problème de la représentation et structuration des métadonnées
dans un même système, ou entre système différents. Il faudra utiliser des outils
technologiques spécifiques permettant de construire des index et de définir des distances pour
optimiser le temps et la qualité de la recherche. Certaines recherches vont même jusqu'à
modéliser les intérêts des utilisateurs et un tel système couplé avec un mode de représentation
symbolique pourra permettre de définir dynamiquement les chemins optimaux vers les
données potentiellement recherchées.

Ce domaine est extrêmement vaste et fait intervenir de nombreux aspects de
l’intelligence artificielle, on peut presque l’adapter à tout problème. C’est une des pratique la
plus à la convergence des technologies parmi lesquelles l’intelligence artificielle à un rôle à
jouer.

Page
30

Mémoire de fin d’études

Florian GRENIER

3.8) Intelligence artificielle collective et systèmes multi-agents

Concept :
En intelligence artificielle, un système multi-agent est un groupe d’unités travaillant
en collaboration, avec des interactions définies, dans un environnement donné. On essaie ici
de représenter l’ « Intelligence Collective » que l’on peut retrouver chez les hommes. C’est
l’ensemble des capacités cognitives d’un groupe d’individu issues des interactions entre ses
membres. Sachant que les individus n’ont pas conscience de la totalité des évènements
influençant le groupe, la connaissance de chaque membre est donc limitée à sa propre
perception de l’environnement, mais le groupe pourra quand même accomplir des tâches
complexes via un mécanisme appelé synergie (ou stigmergie).
Il existe un très grand nombre de formes d’intelligences collectives divergeant selon la
communauté et ses membres, ces systèmes seront tous plus ou moins complexes ou
sophistiqués. Contrairement aux colonies d’insectes, les humains créent des intelligentes
collectives très hétérogènes pour les raisons mentionnées ci-dessus alors que chez les
fourmis par exemple on retrouvera toujours globalement le même schéma « mécanique »
d’organisation.
Pour caractériser une intelligence collective simplement on identifiera :
-

La portée de l’information : il faut que chaque membre du groupe ait une

connaissance partielle de l’information, il ne faut pas d’omniscience.
-

Les règles de comportement : chaque individu doit se comporter selon des

règles de groupe simple et homogènes par rapport au système global.
-

Les interactions : chaque membre du groupe doit être en relation avec un ou

plusieurs autres pour permettre un échange d’informations.
-

L’intérêt de la collectivité : dans un système d’intelligence collective, chaque

individu doit trouver un sens à sa collaboration dans le système pour permettre
l’émergence d’une structure utile à la collectivité, le membre isolé trouvant son intérêt
à la collaboration et faisant preuve de performances supérieures à celles que l’on
pourrait observer dans un même environnement en solitaire.
Nous avons bien défini le concept d’intelligence collective, maintenant nous allons
voir comment les systèmes multi-agent s’organisent autour de cette discipline. Comme
précisé précédemment, le système multi-agent mettra en œuvre plusieurs « Agents » (entité
partiellement autonome) dans un environnement interagissant les uns avec les autres selon des
règles strictes.
Page
31

Mémoire de fin d’études

Florian GRENIER

Mise en œuvre :
C’est un sujet traité depuis des années en Intelligence Artificielle Distribuée, il permet
la modélisation de sociétés et donc offre un champ d’application immense pouvant même
aller jusqu’aux sciences humaines. Pour se représenter simplement un système multi-agent,
imaginez un jeu vidéo de simulation de vie de famille, on aura :
-

Un environnement : la maison disposant d’une métrique

-

Des objets passifs : ce sont les objets sur lesquels peuvent intervenir les agents

(Nourriture, vase, voiture, four …).
-

Les agents : notre famille d’humains simulés (Mathilde, Linda, Alex …).

-

Des relations entre les objets et nos agents (Mathilde peut manger du pain

alors que Linda non car elle est intolérante au gluten).
-

Des relations entre agents : liens de famille, notion de propriété …

-

Un ensemble d’opérateurs : ce sont les outils avec lesquels nos agents vont

interagir sur les objets ou sur les autres agents (Alex sait faire du vélo).
-

Un ensemble de capteur : permettant aux agents de se tenir informés de

l’évolution de l’environnement (il n’y a plus de pain sans gluten, le vélo est cassé …).
Pour concevoir un système multi agent, il y a quatre grandes questions à se poser :
-

Comment les agents doivent-ils interagir ensemble dans le milieu et comment

le milieu réagira-t-il en retour ? On doit alors les munir d’un système de décision leur
permettant de planifier des actions à plusieurs.
-

Quel sera le model cognitif de l’agent, comment l’individu appréhendera sa

relation au monde ? Pour cela, nous devons leur donner un modèle cognitif de
référence, de nombreux existent, mais on peut citer le plus connu d’entre eux : le BDI
(Beliefs-Desires-Intentions).
-

Comment les agents doivent interagir ensemble ? quel support et quel

langage ? On leur donnera un système de communication, des langages tels que le
KQLM ou FIPA-ACL remplissent parfaitement cette fonction.
-

Les agents vont-ils évoluer, apprendre ou s’adapter à la collectivité ? C’est un

sujet assez compliqué, on sait que certains virus peuvent s’adapter à leur
environnement par le biais de mutation mais aucune réelle bonne pratique n’est en
place actuellement.

Malheureusement, le fonctionnement éprouvé des systèmes multi-agents ne permet pas de
résoudre toutes les problématiques, d’où la création de réseaux de neurones artificiels.
Page
32

Mémoire de fin d’études

Florian GRENIER

3.9) Réseaux de neurones artificiels
Un réseau neuronal artificiel est un groupe d’algorithmes et de méthodes mises en
places pour tenter d’approcher le fonctionnement du cerveau humain par le biais d’unités
de calculs (neurone) tentant de s’approcher le plus possible des neurones biologiques.

Fonctionnement d’un neurone biologique

La plupart du temps, ces réseaux de neurones sont optimisés par des méthodes
d’apprentissages tels que les algorithmes génétiques. Ils seront utilisés ensuite pour effectuer
une simulation de réactions cognitives indépendantes des idées propres au développeur, ceci
pouvant enchainer sur du raisonnement logique formel (ou « Deep Learning »).

Représentation classique d’un réseau neuronal

Le développement des réseaux de neurones et les avancées dans ce secteur sont
fortement liés à nos connaissances actuelles en neurosciences, en biologie et en cybernétique.

Page
33

Mémoire de fin d’études

Florian GRENIER

Nous avons donc eu une forte évolution de la représentation des neurones dans les réseaux
neuronaux au fil du temps :

Le neurone formel :
C’est en 1950, après la publication de l’article « What the frog’s eye tells the frog’s
brain », que les neurologues Warren McCulloch et Walter Pitts constituèrent un modèle
simple de neurone biologique appelé neurone formel. La plupart du temps, un neurone formel
est constitué d’entrées et d’une sortie correspondant aux dendrites et à l’axone du véritable
neurone biologique. Dans un neurone, nous avons également des synapses provoquant une
action sois excitatrice sois inhibitrice au niveau des signaux reçus. Ces actions sont souvent
représentées par des coefficients numériques (poids synaptiques) associés aux différentes
entrées. Durant la phase d’apprentissage, on va alors modifier ces poids synaptiques pour
donner la pertinence nécessaires aux informations importantes. Lorsqu’une information arrive
en entrée du neurone, on va alors exécuter la fonction de transfert du neurone comprenant
comme variable le poids associé à l’entrée de l’information. Cette fonction de transfert nous
renverra une valeur qui sera alors comparée à une valeur seuil d’activation, si la valeur
calculée est supérieur à la valeur seuil, alors le neurone s’excite sinon son axone s’inhibe. En
connectant plusieurs de ces neurones on obtient le réseau de neurones formels. Il permettra,
après une période d’apprentissage, d’effectuer une opération de classification donnée
rapidement et en s’améliorant. Pour apprendre au réseau, on va ajuster les poids synaptiques
et les valeurs de seuil de chaque neurone du réseau pour obtenir un comportement optimal.

Le perceptron :
Le neurone formel remplis effectivement sa tâche mais ne fournit pas de méthode
d’adaptation des coefficients synaptiques et c’est ici que le perceptron intervient. C’est le
physiologiste Donald Hebb qui, en 1949, résout ce problème par la « règle de hebb » qui
permet d’ajuster les valeurs des coefficients synaptiques en fonction de leur activité. C’est-àdire que plus une synapse sera souvent excitée, plus son coefficient aura un gros impact sur la
fonction de transfert. Cette modification d’apparence légère permet au système d’apprendre
par expérience mais cela même si l’instructeur commet des erreurs ce qui est une révolution
dans le domaine. Le perceptron est aujourd’hui encore le modèle de neurone artificiel le plus
largement utilisé.

Page
34

Mémoire de fin d’études

Florian GRENIER

Le perceptron multicouche :
Une fois le perceptron inventé et implémenté, l’intelligence artificielle fut une grande
désillusion car elle ne réussissait pas à répondre aux énormes attentes qu’elle suscitait. C’est
en 1986 que David Rumelhart introduit le perceptron multicouche. Il est la résultante du
couplage du perceptron standard et de la théorie de la « régularisation statistique » de
Vladimir Vapnik. Cette théorie permet d’anticiper et de réguler les phénomènes de
surapprentissage. Ceci se traduit par un arbitrage équivalent entre une modélisation trop
pauvre manquant de détails pour être réellement efficace, et une modélisation trop riche
faisant une généralité de cas pas forcément pertinent se retrouvant souvent dans un nombre
d’exemples trop petit.
3.10) Réalité virtuelle

La réalité virtuelle (VR), aussi appelée multimédia immersif ou encore réalité simulée
par ordinateur, est une technologie informatique reproduisant un environnement réel connu ou
imaginaire. Le but de cette manipulation est d’offrir à l’utilisateur une expérience la plus
immersive possible pouvant aller jusqu’à utiliser tous nos sens, elle permet également
l’interaction de l’utilisateur en son sein.
Aujourd’hui, la VR est en plein essor avec la sortie de l’Occulus Rift et l’HTC Vive.
L’amélioration des nouvelles technologies de VR sont dues aux chercheurs américains qui ont
permis le développement de cette technologie autant pour le grand public que pour l’industrie.

Certaines applications de VR tels que des jeux ou des applications ludiques mettent en
place de petites intelligences artificielles faibles comme des personnages non-joueurs, mais il
n’est pas impossible de projeter que dans le futur, les IA évolués des jeux vidéo seront
implémentés dans les applications de réalité virtuelle pour permettre une meilleure immersion
et une plus grande qualité d’expérience.

Les différents types de développement expliqués, je vais maintenant faire les corrélations
entre ceux-ci et les différents domaines d’applications possibles.

Page
35

Mémoire de fin d’études

Florian GRENIER

4) Les domaines d’applications
Maintenant que les concepts sont posés, nous allons pouvoir analyser la présence et
l’impact de l’intelligence artificielle dans notre quotidien. Nous allons essayer d’exposer ici
les plus grandes utilisations de l’IA dans des domaines radicalement différents. On appuiera
ainsi le fait qu’elle est déjà omniprésente dans notre quotidien et qu’elle a déjà dépassé les
performances humaines dans des secteurs bien précis. On verra également des applications
moins axés sur la performance mais plus sur le côté pratique et le gain de temps. Cette partie
tentera de susciter votre curiosité pour vous donner envie de vous renseigner sur les
applications de l’intelligence artificielle car évidemment, la liste suivante restera nonexhaustive et ne parlera que des plus gros sujets actuels.
4.1) Accessibilité et ergonomie
L’accessibilité est le fait qu’une application puisse être utilisée par le plus grand
nombre de personnes quel que soit le handicap. J’ai ajouté « ergonomie » ici car les deux
principes se retrouvent sur le fait qu’ils essaient tous deux de rendre l’utilisation d’un outil le
plus agréable et simple possible.
Nous allons donc commencer

par parler des assistants personnels virtuels, ces

applications « futuristes » vous permettant de dialoguer et de poser des questions à une
machine et d’avoir une réponse en retour. Les plus connus sont

Siri (Apple), Cortana

(Microsoft), SVoice (Samsung) et Google Now (Google). En se basant sur d’énormes bases
de données et des algorithmes de deep learning, les Assistants Personnels Virtuels offrent une
capacité de raisonnement ultra rapide.

Son rôle sera de répondre pertinemment à des requêtes potentiellement de tout ordre
(écriture d’un sms, traduction de texte ou encore réservation de billet). Pour effectuer cela
l’assistant virtuel devra recevoir ses informations via des données brutes (textes, images ou
son) qu’il analysera ensuite avec le serveur car ces applications sons toutes dépendantes d’un
serveur à distance à qui poser les questions, car évidemment, un tel système ne serait pas
supporté par les téléphones actuels.
Mais les assistants virtuels ne sont pas les seules applications de l’ia en accessibilité.
Google a créé en 2014, l’outil Inbox Gmail. C’est un outil destiné aux personnes n’ayant que
peu de temps pour s’occuper de l’administratif.

Page
36

Mémoire de fin d’études

Florian GRENIER

Cet outil arrive à trier et classer les mails similaires, mettre en avant ceux qui sont
important et au contraire avoir tendance à masquer les inutiles. Bien évidemment que de
l’intelligence artificielle se cache derrière tout ça ! Mais le plus beau reste que fin 2015, la
multinationale annonçait la sortie de Smart Reply. Cette nouvelle fonctionnalité offre la
possibilité à l’application de répondre automatiquement (mais non sans votre accord) à vos
e-mail. Le réseau de neurones de Google va analyser votre syntaxe d’écriture et ordonner les
idées en champs lexicaux pour améliorer son fonctionnement. Ensuite quand vous recevrez un
e-mail, Smart Reply vous proposera trois réponses, si l’une d’entre elles vous convient, vous
n’avez qu’à cliquer dessus. C’est un énorme gain de temps pour les personnes recevant de
nombreux e-mails chaque jour.
En dehors de l’application web, nous retrouvons également l’Intelligence Artificielle
dans la domotique. Les produits Amazon Echo ou Google Home sont vos majordomes
virtuels.

Ces

applications

résultent

d’années

d’apprentissage

automatique,

de

perfectionnement en reconnaissance vocale et en systèmes experts. Le système vocal repose
sur un algorithme de traitement du langage naturel sophistiqué et spécialement créé pour
l’occasion. Le Google home se présentera ainsi :

Il permet de reconnaitre une demande et d’y répondre si possible. Il permet de vous
donner la météo, mettre la radio, écouter de la musique via vos comptes Spotify, Amazon ou
Apple music. Il peut vous mettre en place des alarmes, des rendez-vous sur votre Google
calendar, effectuer des commandes sur internet, il a également accès à Wikipedia ce qui lui
permet de répondre à un grand nombre de questions de culture.
L’intelligence artificielle du Google Home est appelée Alexa, vous pouvez lui ajouter
des fonctionnalités en fonction de vos besoins et les plus téméraires peuvent également
développer des modules pour l’outil : lui apprendre à contrôler des éclairages sans fils ou
encore des thermostats pour que votre maison soit la plus adaptée à vos attentes.
Page
37

Mémoire de fin d’études

Florian GRENIER

Malheureusement ces produits ne sont pas encore disponibles en dehors des EtatsUnis, le Google home ne peut pas vous localiser hors du pays ce qui peut apporter des
problèmes lors de questions impliquant le fuseau horaire ou la localité.
Les applications d’intelligence artificielles se retrouvent également dans le domaine
bancaire.
4.2) Banque
Dans les banques, les systèmes experts commencent à faire leurs places entre les
différentes applications de gestion de fonds et d’assistance. Il existe des systèmes experts
d’évaluation des risques liés à l’octroi d’un crédit qui vont analyser les données d’un client
pour définir quels sont les risques et les probabilités de rentabilité d’un crédit quel qu’il soit.
Comme précisé dans le paragraphe sur les systèmes experts, le logiciel aura besoin d’un
expert humain qui va lui « expliquer » comment réagir à telle ou telle situation, le système va
apprendre de cet expert pour être par la suite plus rapide et efficace que celui-ci. En effet, une
banque dispose d’un grand nombre d’offres, un agent humain ne pourra jamais proposer la
totalité des offres et travaillera la plupart du temps avec les 10 ou 15 offres qu’il maitrise le
plus. Le problème c’est que cela enlève de la valeur ajoutée à ce que pourrait produire la
pluralité de leurs offres alors que ça devrait être un avantage pour eux face à la concurrence.
Les sociétés Yseop ou IBM disposent d’outils pouvant palier à ces problèmes : des
intelligences artificielles expertes en banques. Après la collecte d’informations chez le client,
l’outil va déterminer le produit le plus adapté. Il expliquera même au conseiller comment
présenter la solution aux clients, et en quoi cette solution est la meilleure pour eux et quels
sont les risques auxquelles ils font faces. Un tel outil offrira une hausse de 15 pourcents du
nombre de clients des banques l’utilisant. Il permettra également de mieux conseiller le client
et, par conséquent, de le fidéliser plus significativement.
Mais les systèmes d’analyse de crédit ne sont pas les seules intelligences artificielles
présentes dans nos banques. Certaine application de prédiction d’éléments métiers peuvent
également permettre de définir un taux d’attrait d’un client et même déterminer lorsqu’un
client souhaitera quitter la banque, tout en indiquant comment y remédier. Ces deux dernière
applications sont aujourd’hui largement répandues dans les banques et donc dans notre
quotidien sans que nous en soyons conscients.

Page
38

Mémoire de fin d’études

Florian GRENIER

Par ailleurs, un autre type d’application commence à voir le jour : les chat-bot. Ils
permettent de court-circuiter le conseiller lors d’une phase de pré qualification du client et de
récupération d’informations. Le robot pourra également répondre à des questions répétitives
et simples soulageant ainsi les opérateurs qui pourront donc se concentrer sur des dossiers
plus importants.
Nous pouvons également appliquer l’ia dans la finance, ou les réseaux de neurones
travaillent quotidiennement.
4.3) Finance
Dans la finance, les enjeux sont énormes et il est important de prendre des décisions le
plus vite et le plus qualitativement possible ce qui demande une grande capacité de calcul.
C’est pour cela que la société Bridgwater Associates a engagé David Fiorucci, le créateur de
l’application Ibm Watson qui peut rivaliser avec l’homme sur un jeu de stratégie. Son but
étant de concevoir une intelligence artificielle capable de gérer un fond d’investissement
dans sa totalité. Pour ce faire, l’application va créer ses propres algorithmes en fonction de
données statistiques. Ce qui permettra d’analyser l’historique de l’évolution du marché et
ainsi doter l’algorithme d’une logique prédictive au sommet de l’innovation.
En effet cela fait une quinzaine d’années que les logiciels intelligents travaillent déjà
pour les marchés mais ce projet est une révolution du fait que pour celui-ci il n’y aura pas
besoin d’homme à l’origine des scénarios à suivre : la machine les définira par elle-même.
De plus dans ce genre de secteurs les machines ont de l’avenir car même les plus
talentueux ingénieurs ont du mal à faire des prédictions fiables quant aux tendances des
marchés. Mais ce genre de projet fait peur aux économistes car en 2010, une application mal
réglée fut lancée sur les marchés anéantissant certaines capitalisations boursières sur la route
et créant un crash. En effet, étant donné le grand nombre de stratégies possibles et de facteurs
externes, les courbes du marché peuvent subir de forts changements qui sont difficiles à
analyser et à pondérer pour une machine. Il reste néanmoins intéressant de voir les
performances que peuvent produire ces algorithmes mais il faut également être conscient des
responsabilités déléguées au système et pouvoir dans tous les cas le contrôler.

Page
39

Mémoire de fin d’études

Florian GRENIER

L’utilisation des systèmes intelligents dans les finances peuvent mener à réflexion.
Mais il existe un autre domaine ou les applications d’IA sont controversés : le militaire.
4.4) Militaire
De nombreux algorithmes de systèmes experts, de reconnaissance d’images ainsi
que des réseaux neuronaux sont utilisés dans le militaire. Le système ALPHA fut conçu pour
contrôler une flotte de drones dans des missions de combat aérien en environnement simulé.
Le système a déjà surpassé ses prédécesseurs ainsi qu’une série d’humains aux commandes
d’avions virtuels. Le programme disposait de quatre avions pour défendre un littoral tandis
que les attaquants disposaient des deux avions plus lourdement armés et même avec un
avantage de vitesse parfois. A chaque fois, aucun des avions d’ALPHA ne fut détruit. Les
témoignages des pilotes affirment que le système était le plus rapide, agressif et réactif qu’ils
ont eu à affronter.
Pour parvenir à un tel résultat, la société Psibernetix a mis en place des techniques
dérivées de logique floue consistant à analyser un grand nombre de possibilités avant de
prendre une décision. L’IA fonctionne avec un processeur 3.2 Ghz et va analyser la totalité de
ses entrées provenant des capteurs tous les 6.4 millisecondes. Par la suite elle va organiser ces
données, cartographier le scénario, analyser l’état du combat et modifier ses décisions pour
s’adapter aux changements analysés. Les développeurs du système affirment qu’ils peuvent
encore augmenter les performances en perfectionnant l’algorithme génétique d’apprentissage
automatique qui enseigne les bonnes pratiques au logiciel.

Le système est encore en phase de test mais la société Psibernetix estime que dans un
futur proche, son intelligence artificielle pourra travailler en collaboration avec des pilotes
humains pour leurs permettre d’effectuer les meilleures actions le plus rapidement possible.
Elle pourrait également contrôler des escouades de drones pouvant effectuer des missions
périlleuses tandis que les hommes s’occuperaient des missions de support et de soutient mois
dangereuses.
De nombreuses autres applications existent pour le militaire, tels que les systèmes
d’aide à la décision. Des applications qui vont travailler avec de grandes masses de données et
les analyser le plus rapidement possible pour produire des analyses rigoureuses et proposer
des solutions à un problème donné dans un temps relativement court.

Page
40

Mémoire de fin d’études

Florian GRENIER

Des problématiques subsistent malgré tout lorsque l’on essaie d’aller plus loin et de
mettre en service ce genre de systèmes. Des questions d’éthiques se posent, si une machine
détient le droit de tuer, sera-t-elle en mesure de distinguer un civil d’un ennemi, pourraitelle mesurer ses frappes si des dommages collatéraux étaient probables ? Autant de questions
qui nous montrent qu’on est encore loin d’avoir abouti à une technologie fiable à 100%, mais
les applications sont effectivement de plus en plus impressionnantes.

Dans le divertissement numérique, on retrouvera des IA et nous allons nous pencher
sur ses applications dans les jeux vidéo.
4.5) Jeux
Lorsque l’on parle d’intelligence artificielle, on ne peut pas omettre les jeux vidéo. La
plupart du temps, elle est utilisée pour donner vie aux Personnages Non-Joueurs (PNJs). Mais
contrairement à la robotique par exemple, le but ici ne sera pas forcement de donner un
comportement approché de celui de l’humain au PNJ mais de donner du challenge au
joueur. Nous avons les algorithmes de résolution de problèmes travaillant sur des jeux de
stratégie tels que les échecs ou le jeu de go. Aujourd’hui ces jeux ont été battus par des
intelligences artificielles de grande qualité et les meilleurs joueurs au monde ne peuvent plus
rivaliser avec ces programmes.

Jeu de go

Les premières intelligences artificielles contrôlant des PNJ arrivèrent dans les années
70 avec notamment le jeu Star Trek qui utilisait des Stored Patterns pour contrôler ces PNJs.
Ce sont des chemins prédéfinis et des actions simples à conditions.

Page
41

Mémoire de fin d’études

Florian GRENIER

Par la suite, entre 1970 et 1990, l’intelligence artificielle s’améliora significativement
avec l’âge d’or des jeux d’arcades offrant de plus en plus de mouvements possibles, des
niveaux de difficultés croissants, tout cela déterminé par des fonctions de hachage.
C’est dans les années 1990 que les nouvelles formes d’IA virent le jour. Les nouvelles
technologies conduisirent à l’utilisation d’automates finis, de stratégie en temps réel prenant
en compte un grand nombre de paramètres. Les joueurs demandèrent alors des IA de plus en
plus « Humaines » pour améliorer l’immersion. C’est ainsi qu’apparurent des jeux tels que
Creatures (1998), utilisant de l’apprentissage automatique, à l’aide de réseaux de neurones, les
créatures apprennent à interagir avec leur environnement et avec le joueur.
Aujourd’hui les jeux vidéo les plus perfectionnés peuvent utiliser des arbres de
recherche, de l’apprentissage automatique et des réseaux de neurones. De nombreux jeux
utilisent également le « pathfinding », c’est la technique permettant de se déplacer d’un point
vers un autre en empruntant l’itinéraire le plus optimisé. Cette technique est également
utilisée dans de nombreux autres domaines tels que la robotique ou encore le routage internet.
L’algorithme le plus utilisé pour cette fonction aujourd’hui est l’algorithme de Dijkstra couplé
avec l’algorithme A*. Cet algorithme se base sur la théorie des graphes avec les calculs de
chemin critique. Contrairement à un algorithme de Dijkstra seul, l’algorithme A* va orienter
sa recherche au lieu de tester toutes les possibilités ce qui permettra un gain de temps
significatif.
Les algorithmes d’intelligence artificielle des jeux vidéo restent aujourd’hui assez
simple et sans réel aspect scientifique. Le temps nécessaire à la réalisation d’une IA sérieuse
ne serait pas rentable pour une société de jeux vidéo et pourrait offrir des résultats plus
qu’aléatoires. Mais si nous mettions en place ce genre d’IA, nous pourrions avoir des jeux qui
ne seraient jamais les mêmes pour chaque joueur et chaque partie jouée. Une nouvelle forme
de jeux pourrait bien voir le jour d’ici quelques années, les jeux infinis, ayant autant de
possibilités de comportement qu’un humain et représentant parfaitement l’effet papillon au fil
du temps.
Nous allons maintenant analyser l’impact de l’IA en médecine.

Page
42

Mémoire de fin d’études

Florian GRENIER

4.6) Médecine
Dans la médecine, il y a de nombreuses connaissance et un grand nombre de relation
cause-effet. La société IBM avec son intelligence artificielle Watson, travaille sur
l’amélioration des diagnostiques en médecine depuis plusieurs années. En effet, Watson peut
analyser la totalité des informations d’un patient puis ensuite travailler en collaboration avec
un médecin pour déterminer au mieux le traitement à prescrire au patient.
En radiologie, les systèmes sont capables d’analyser et de comparer un grand nombre
d’informations très rapidement pouvant ainsi proposer des solutions et des diagnostiques que
des médecins n’auraient pas pu voir par manque de temps et de mémoire.
Mais si une application peut effectuer des diagnostiques, quel est maintenant le rôle du
médecin ? Le médecin à un rôle humain qui ne peut pas actuellement être remplacé par une
machine. Le médecin est là pour aider son patient à comprendre son état, il est là pour utiliser
son sens critique pour déterminer la véracité des propositions des logiciels. Il sera toujours
nécessaire d’avoir un médecin car imaginons une situation grave avec une décision
importante à prendre, si Watson propose une solution radicalement différente de celle pensée
par le médecin, faut-il se fier à lui ? Etant donné que l’outil est une « boite-noire » et que
personne ne sait comment il fonctionne pour effectuer ses corrélations et donner ses
diagnostiques.
En médecine prédictive, il est compliqué pour un humain de donner des résultats de
qualités, conséquence du grand nombre de facteurs génétiques et environnementaux. En
utilisant des algorithmes basés sur des réseaux de neurones, ayant subis de l’apprentissage
automatique sur de grands nombres d’exemples et tout ceci couplé avec des systèmes
experts, on pourrait offrir des résultats de qualités rapidement. On va commencer par utiliser
un perceptron multicouche, lui donner un grand nombre d’exemples clairement identifié. Ici
le réseau de neurones va devoir pondérer les relations de causalités, ce que ne fait pas un
humain de manière fiable. Ensuite on essaie de donner des exemples inconnus au système et
s’il arrive à donner des résultats de qualité, c’est alors qu’il a réussi à comprendre la relation
entre les facteurs d’entrées et le diagnostic.
Mais les réseaux de perceptrons multicouches ne sont pas les seuls types d’intelligence
artificielle utilisés en médecine. Ils seront utilisés dans des situations ou on ne connait pas les
réponses aux problèmes ou si l’on cherche une optimisation des procédés. Mais si l’on
souhaite uniquement automatiser un processus bien connu et avéré, on utilisera surement un
réseau bayésien qui sera plus adapté à la situation.

Page
43

Mémoire de fin d’études

Florian GRENIER

Le dernier domaine d’application que je vais expliquer est la logistique.

4.7) Logistique
Les applications dans ce domaine sont vastes, autant pour le contrôle de la circulation,
la gestion de stocks, le calcul de plan de productions, l’aide à la décision ou la réalisation
d’actes de commandes etc… Ce sont toutes les applications relatives à la maitrise de la
circulation physique, la distribution et les transports de produits. L’informatique est présente
partout en logistique, les points nodaux de réseaux de transport (plateformes, aéroports
etc…). En gestion des stocks par exemple, les applications peuvent calculer, surveiller,
décider et prévoir l’évolution en fonction de méthodes d’analyses statistiques poussées.
4.8) Robotique
La robotique est l’ensemble des techniques d’ingénierie
(informatique,

électroniques,

mécanique…)

permettant

la

conception et la réalisation de machines automatiques ou de robots.
Une définition de robot fut donnée par l’unité de recherche ATILF
(Analyse et Traitement Informatique de la Langue Française) :
« Appareil effectuant, grâce à un système de commande
automatique à base de micro-processeur, une tâche précise pour
laquelle il a été conçu dans le domaine industriel, scientifique ou
domestique ». On aura donc deux types de robots, la machine
physique possédant des capteurs et un système logique et aussi le
robot logiciel (Bot).
La robotique est le domaine dans lequel les différents types d’intelligences artificielles
peuvent quasiment tous êtres implémentés. Aujourd’hui, la plupart des robots ne sont que des
machines exécutant des taches expertes, mais sans réel apprentissage ou réflexion. Mais on
pourrait imaginer des robots mettant en place une acquisition et un apprentissage
automatique des connaissances sur le langage naturel par exemple nous donnant ainsi un
robot potentiellement capable de communiquer. On pourra aussi lui enseigner les calculs
formels et la notion de résolution de problèmes pour le rendre utile. Imaginons coupler tout
cela a une reconnaissance des formes, le robot serait alors capable de reconnaitre un visage,
lui attribuer un nom, et d’autres caractéristiques.

Page
44

Mémoire de fin d’études

Florian GRENIER

On pourra également parler de la microrobotique et des nanorobots qui sont un
champ d’étude en plein essor. Les enjeux d’une telle technologie sont conséquents car
pouvant faire avancer nos capacités médicales significativement, le but étant d’injecter ces
microrobots dans un organisme avec un but précis (par exemple reconnaitre et détruire des
cellules cancéreuses), et les laisser faire ou les contrôler à distance pour les approcher au plus
de leur but.

5) Dépasser l’homme ?
Maintenant que nous avons analysé l’impact de l’intelligence artificielle sur notre
quotidien et sa présence dans le monde, il convient de se poser la question de notre utilité, et
plus précisément de l’évolution des performances de l’IA possible dans le futur. Nous
allons voir ici si l’intelligence artificielle nous a dépassé ou non, et ce qu’il est possible
d’entrevoir pour ce domaine de recherche dans un futur proche ou plus éloigné. On analysera
également les risques possibles et les solutions à mettre en place pour prévenir de tels risques.
5.1) Performances : Homme / Machine
En termes de performances de calcul, de mémorisation et de classement, la machine
a largement dépassé l’homme, encore plus significativement avec l’arrivée des nouveaux
processeurs quantiques. Mais pour des opérations de réflexions, de raisonnement ou de
communication, l’homme est toujours le plus performant. En effet, la machine est loin d’avoir
nos capacités de pensées et la seule intelligence que l’on arrive à obtenir aujourd’hui reste une
exécution de lignes de codes dont l’origine est un développeur humain. Pour être plus
rigoureux, je comparerais les performances d’une machine avec celle du cerveau humain.

La réflexion :
Commençons par la réflexion, à la base d’une machine, les données sont actuellement
traités avec des bits faisant partie d’un système binaire (0 ou 1). Un humain travaille avec une
infinité de réseaux de neurones et est par conséquent capable d’appréhender une ambigüité
(si, mais…) alors que la machine restera bloquée sur un système binaire (oui ou non).

Page
45

Mémoire de fin d’études

Florian GRENIER

Les connexions d’un ordinateur sont figées, si l’on crée un robot ayant un capteur
de son, d’image et de température, si l’un d’entre eux tombe en panne, le système ne
fonctionne plus par inexistence de possibilités d’adaptation. Le cerveau humain, au
contraire, possède des milliards de neurones constamment en train de se modifier, de créer
de nouvelles connexions pour répondre à une problématique ou une modification
environnementale, ce qui amène à un cerveau unique pour chaque être humain. Cela permet
également au cerveau de se « reprogrammer », si jamais une fonction n’est plus assurée par
une zone du cerveau, alors de nouvelles connexions se créeront pour palier à ce
dysfonctionnement. Par exemple, une personne aveugle pourra réussir à se diriger grâce à
l’ouïe et le touché alors qu’un robot avec une caméra endommagée, ne sera en aucun cas
capable de traiter le moindre signal visuel.
Néanmoins, la machine dispose d’une vitesse de « réflexion » largement supérieure à
celle du cerveau humain. La vitesse de transport de l’information pour un ordinateur est la
vitesse de la lumière (300 000 km/s) alors que dans le cerveau humain, les informations se
déplacent à une vitesse approximative de 6 à 10 m/s. La différence est qu’un humain possède
des milliards de neurones contrairement à un processeur possédant un nombre minime de
transistors. C’est une des limitations actuelle de l’émergence d’une intelligence artificielle
forte.

La mémoire :

Au niveau de la mémoire, une machine est capable de manipuler une quantité quasi
infinie d’informations. Le stockage de cette mémoire peut s’effectuer sur différents types de
matériel, un disque dur classique ou SSD etc… Mais à la différence du cerveau humain, la
machine grave ses informations en dur, une information écrite est infaillible chez
l’ordinateur ce qui n’est pas le cas chez l’homme. La capacité à enregistrer de l’homme étant
beaucoup plus faible, le cerveau enregistrera les informations par le biais d’associations de
différentes choses entre elles. La mémoire s’effectue au niveau des synapses qui
réévalueraient leur poids synaptique en fonction de l’accès à l’information. Ce procédé
entraine une perte des informations jamais consultée et une réécriture constante de la mémoire
ce qui nous donne une mémoire peu fiable.

Page
46

Mémoire de fin d’études

Florian GRENIER

Le traitement de l’information :
Au niveau du traitement de l’information, il y a les neurones pour le cerveau, et les
transistors pour la machine. On peut se les représenter par des interrupteurs laissant passer ou
non un courant. L’ordinateur n’est donc qu’un agrégat de conditions entre le oui/non et les
opérateurs logiques et/ou. Avec ceci on obtient la machine de calcul que sont les ordinateurs
actuels. Les neurones eux, ont un fonctionnement plus complexe, se sont des entités reliées à
de nombreuses autres en sortie et étant reliées elles-mêmes à de nombreux neurones en
entrée. On peut avoir des messages en même temps ou encore une variation de la vitesse des
messages et de leur intensité. Ce qui montre déjà une différence drastique entre le
fonctionnement de l’homme et de la machine, ce qui ne simplifie pas les problématiques de
comparaison des performances homme/machine.

En effet, le cerveau est loin du

fonctionnement binaire d’un processeur.

Pour terminer, voici un tableau récapitulatif des performances entre le cerveau et un
ordinateur :

Page
47

Mémoire de fin d’études

Florian GRENIER

5.2) La transhumanité et la nanorobotique

Transhumanisme, nanorobotique, sciences cognitives et biotechnologies sont des
sujets qui font rêver. Tous ces films de science-fiction où l’on voit des hommes transférer leur
conscience dans des androïdes, des êtres moitié humains, moitié machines, pouvant vivre
plusieurs siècles. Soigner des cancers avec des machines de la taille d’une molécule qu’on
injecterait directement dans les organismes. Tous ces sujets sont de réels sujets de recherches
et nous avons bien avancé dans ces domaines. Le transhumanisme est le fait de modifier
technologiquement un être humain pour l’améliorer, lui donner de nouvelles capacités et
le faire passer à un état d’H+, un homme supérieur. Actuellement nous avons des prothèses de
plus en plus perfectionnées contrôlés directement par les muscles du sujet, de plus en plus
solides et de plus en plus précises. Mais nous n’arrivons toujours pas à reproduire un membre
dans son exactitude et à l’interfacer avec le corps humain.
Des chercheurs de Californie on réussit à mettre au point un dispositif permettant
d’améliorer l’apprentissage d’un humain via des stimulations transcrâniennes. En d’autres
termes, ils ont réussi à alimenter directement un cerveau en informations, liées
évidemment à l’activité actuelle de celui-ci. Beaucoup de chercheurs transhumanistes
cherchent à trouver des moyens de rallonger l’espérance de vie, de rendre l’homme plus fort
etc…
Mais est-ce bien une bonne idée ? La vie et la mort sont intimement liés et se
définissent l’une et l’autre par leur inverse. De gros problèmes peuvent voir le jour avec
l’avènement de ce genre de technologies, qui en sera bénéficiaire ? Les plus riches surement,
ou si cela devient à la portée de tout le monde nous finirons par être trop nombreux sur la
planète sachant que nous commençons déjà à être surpeuplés. Ce genre de thèses sur
l’évolution de l’intelligence artificielle inquiète beaucoup les grands de ce monde (Elon
Musk, Bill Gates et Stephen Hawking notamment). Ils affirment que si une intelligence
légèrement supérieure voyait le jour, nous ne pourrions pas la contrôler, mais nous
expliquerons plus en détails les risques dans la partie prévue à cet effet.

Page
48

Mémoire de fin d’études

Florian GRENIER

5.3) Artificial Narrow Intelligence
L’Artificial Narrow Intelligence (ANI) correspond à la capacité de traitement de
problèmes dans un domaine précis. Tout commença avec les systèmes jouant et gagnant
aux échecs comme le Deep Blue d’IBM en 1997, puis ensuite avec des systèmes experts
pointus comme dans certains secteurs de la santé, avec notamment les systèmes d’aide au
diagnostic.
On peut aussi citer les moteurs de recherche (Google etc..), la détection de fraudes
bancaires, le système d’aide au crédit de particuliers, la conduite automatique ou assistée
(avec la Google Car), Apple SIRI, Microsoft Cortana et Google Translate. Si l’intelligence
artificielle n’imite pour l’instant toujours pas l’homme, la force brute et l’usage d’éléments
techniques dont l’homme ne dispose pas comme la vitesse de traitement et le stockage de gros
volumes de données permettent déjà à la machine de dépasser l’homme dans de nombreux
domaines.
5.4) Artificial General Intelligence
L’Artificial General Intelligence (AGI) correspond au niveau d’intelligence
équivalent à celui de l’homme, avec un côté polyvalent, avec la capacité à raisonner, penser,
analyser des données et résoudre des problèmes variés.
On peut intégrer dans ce niveau un grand nombre des capacités humaines : l’usage du
langage à la fois comme émetteur et récepteur d’informations, la vue et les autres sens, la
mémoire et en particulier la mémoire associative, la pensée, le jugement et la prise de
décisions,ela résolution de problèmes multi-facettes, l’apprentissage par la lecture ou
l’expérience, la perception du monde et de soi-même, l’invention et la créativité, la capacité
àdréagir à l’imprévu dans un environnement complexe physique commeeintellectuel ou
encore la capacité d’anticipation. On peut y ajouter les sentiments et l’empathie, les envies et
les désirs et aussi le rationnel, la remise en question.
Pour l’instant, on en est encore loin, même si certaines de ces capacités notamment
linguistiques et de raisonnement général sont en train de voir le jour avec plus ou moins de
précisions et de viabilités.

Page
49

Mémoire de fin d’études

Florian GRENIER

L’AGI dépend à la fois des progrès matériels et de notre compréhension toujours en
évolution du fonctionnement du cerveau humain qui fait partie du vaste champ de la
neurophysiologie, allant de la neurobiologie à ladneuropsychologie. Le fonctionnement du
cerveau apparaitdau gré des découvertes comme étant bien plus complexe et riche
qu’imaginé. Les neurones seraient alors capables de stocker des informations analogiques et
non pas binaires, ce qui en multiplierait la capacité de stockage de plusieurs ordres de
grandeur par rapport à ce que l’on croyait jusqu’à il y a peu de temps. On sait par contre que
le cerveau est à la fois ultra-massivement parallèle avec ses trillions de synapses reliant les
neurones entre elles mais très lent (“clock” de 100 Hz maximum).
5.5) Artificial Super Intelligence

L’Artificial Super Intelligence (ASI) est la continuité logique de l’étape précédente,
liée à la puissance des machines qui se démultiplie et se distribue plus facilement que celle
d’un cerveau humain avec ses entrées-sorties et ses capacités de stockages et de traitement
limitées. A ce niveau, l’intelligence de la machine dépasse celle de l’homme dans tous les
domaines y compris dans la créativité et même dans l’agilité sociale. Le point de dépassement
est une “singularité”. Il est évoqué dans de nombreux ouvrages comme dans « The
Singularity is Near » de Ray Kurzweil.
Dans la pratique, l’IA d’aujourd’hui va déjà bien au-delà des capacités humaines,
notamment lorsque la mémoire est en jeu, et également avec les vitesses de calcul. La capacité
des systèmes experts, et notamment d’IBM Watson, à brasser d’énormes volumes
d’information fournit des capacités inaccessibles à n’importe quel humain, même surdoué.

Page
50

Mémoire de fin d’études

Florian GRENIER

L’ASI correspond donc à un mélange des genres entre les domaines où l’homme est déjà
dépassé et ceux où il ne l’est pas encore et le deviendra.
En étant optimiste, l’ASI aurait un impact indirect : l’immortalité de l’homme,
conséquence des découvertes générées par l’ASI. C’est évidemment faire abstraction de ce
qui ne peut pas encore se faire de manière entièrement numérique. La recherche scientifique
dans la santé en est donc toujours réduite à mener des expérimentations itératives et plutôt
lentes, même avec les appareils les plus modernes. Avec ou sans programmes intelligents,
cela reste immuable. D’ailleurs, les meilleures solutions d’IA comme l’usage d’IBM Watson
dans la cancérologie s’appuient sur le corpus issu de toutes ces expérimentations. Il a une
base physique et réelle crée par l’homme. On pourra certainement automatiser
l’expérimentation

biologique

encore

plus

qu’aujourd’hui

dans

la

recherche

de

thérapeutiques, mais cela restera toujours du domaine du biologique, pas du numérique, donc
plutôt lent et difficile de mettre à l’échelle.
On arriverait au stade de l’AGI entre 2030 et 2100 selon les prévisions, et de l’ASI
quelques décennies après. On se demande d’ailleurs ce qui expliquerait le délai entre les deux
au vu du facteur d’accélération lié au matériel. Tout cela reste des suppositions, et bien de
problèmes restent à surmonter et à découvrir pour parvenir à ces résultats.
5.6) Les limites
Matériel :

Comme défini précédemment, de nombreuses limites s’opposent à l’apparition d’une
intelligence artificielle suprême. La plus grosse de ces limites est notre connaissance en
neurobiologie, dans toutes les sciences cognitives, tant que nous n’aurons pas compris à 100%
le cerveau humain, on ne pourra pas tout faire au niveau informatique. Les limitations
matérielles sont importantes, la composition du transistor, le fonctionnement des neurones
et le nombre de connexions entres les unités de calculs sont trop différents pour approcher un
fonctionnement biologique strict. Allan Turing à décrit de nombreuses choses que ne pourrait
pas faire une machine selon lui à savoir : « Etre inventif, prendre des initiatives, avoir le sens
de l’humour, discerner le bien du mal, commettre des erreurs, tomber amoureux, tirer des
leçons de son expérience, être le sujet de sa propre pensée, avoir des comportements aussi
diversifiés qu’un humain, faire quelque chose de réellement nouveau. »

Page
51

Mémoire de fin d’études

Florian GRENIER

Est-ce que la créativité est le propre de l’homme ? Les scientifiques ayant planchés sur
cette question disent que non, car certaines machines sont capables de créer à partir de rien, à
savoir les réseaux de neurones qui arrivent à faire des analogies de sérendipité faisant
avancer la science. Mais ce n’est qu’en se basant sur des règles dictées par l’homme, et par les
exemples lors de son apprentissage que cela peut se produire. Un homme serait arrivé aux
mêmes conclusions au bout d’un certain temps. Seulement la machine est plus rapide et donc
nous permet de gagner du temps.

Emotions :

Parlons maintenant des émotions et de la conscience. Encore une fois, nous allons citer
Allan Turing : « Nous ne pourrons affirmer que la machine égale le cerveau humain avant
qu’une machine puisse écrire un sonnet ou composer un concerto, à partir des pensées et des
émotions ressenties, et pas simplement par la combinatoire hasardeuse des symboles. Aucun
mécanisme ne peut ressentir (et pas seulement un signal artificiel ou un simple dispositif) le
plaisir de la réussite, la douleur d’un spasme, le réconfort suscité par la flatterie, la misère
provoquée par ses propres erreurs, le charme du sexe, la colère ou la dépression quand il
n’obtient pas ce qu’il veut. » Dans cette définition, nous avons l’argument comme quoi une
machine ne peut être intelligente sans conscience ou émotion. Mais il est important de noter
qu’il n’est pas indispensable de doter un programme de conscience ou d’émotions pour que
son comportement s’approche de celui de l’humain, même si cela ne reste qu’une imitation
grossière de fonctions humaines, on peut alors parler d’intelligence artificielle. Mais cette
définition est seulement une approche pragmatique de la discipline. Depuis quelques années,
un domaine a vu le jour : l’informatique affective. C’est une matière à la frontière entre
l’intelligence artificielle et les sciences cognitives visant à étudier le formalisme des émotions,
comprendre leur fonctionnement pour pouvoir les inculquer à une machine.
En effet les machines ne possèdent pas d’émotions mais elles n’en ont pas besoin
pour être intelligentes. Et si jamais les machines pouvaient ressentir, saurions nous faire la
distinction entre une machine qui reproduit avec exactitude le comportement humain
machinalement d’une machine qui vit et qui peut ressentir de réels sentiments comme nous ?
Je vous laisse réfléchir à cette question.

Page
52

Mémoire de fin d’études

Florian GRENIER

Intuition :

Le dernier aspect qui peut être compliqué à formaliser pour une machine sera
l’intuition. L’intuition est une connaissance immédiate et évidente ne nécessitant pas d’avoir
recours au raisonnement, au calcul. Cette capacité est inaccessible aux machines car elles ont
seulement accès à des opérations binaires sur des composants électroniques. Toutefois,
lorsque l’on va tenter de produire une intelligence artificielle, ou simuler un raisonnement on
le fera via des méthodes d’heuristiques approchant l’intuition puisque la machine va utiliser
des mécanismes d’auto-évaluation dressant un bilan rapproché de l’état ou ils se trouvent.
Ceci ayant pour but de trouver l’action appropriée à la résolution du problème fixé. On
retrouve une sorte d’intuition ici car le logiciel fournira une indication superficielle orientant
sa recherche et terme de préférences et de plausibilité. En d’autres termes l’ia a une intuition
bien à elle : les heuristiques qui sont actuellement au centre des développements de bon
nombre de systèmes intelligents.
5.7) Les risques
Les risques sont multiples avec l’intelligence artificielle. Comme dit plus haut,
certains scientifiques ont peur d’une potentielle intelligence artificielle qui dépasserait
l’homme. Ils émettent l’idée quelle pourrait nous dominer voir nous exterminer comme nous
humains, nous cherchons à exterminer les virus par exemple. Le statisticien britannique Irving
John Good a donné une description d’un possible avenir de l’intelligence artificielle : «
supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un
homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités
intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même ;
cela aurait sans nul doute pour effet une réaction en chaîne de développement de
l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que
la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à
condition que la dite machine soit assez docile pour constamment lui obéir. » Ici Good évoque
un changement drastique de ce que représente le progrès. Les plus fervents des
transhumanistes parleront de singularité technologique pouvant même mener à la naissance
d’un dieu numérique ayant la main mise sur le monde. Potentiellement un logiciel
« comprenant » le langage naturel et capable d’apprendre d’autres langues pourrait
rapidement être hors de contrôle si lâché dans la jungle du net.
Page
53

Mémoire de fin d’études

Cependant il

Florian GRENIER

est impossible de savoir le temps que prendrait une telle récolte

d’information, ni la structure que devrait prendre l’architecture du logiciel pour pouvoir
effectuer de telles opérations. Si toutes nos espérances venaient à se concrétiser, l’IA pourrait
rapidement mettre 50% de l’humanité au chômage selon le spécialiste informatique Moshe
Vardi. C’est en 2016 que Google émet la possibilité d’une intelligence artificielle qui pourrait
apprendre à empêcher leur interruption et donc devenir incontrôlable et innarettable.
On peut citer l’intelligence artificielle de discussion de Microsoft TAY. Cette application
auto-apprenante fut lâchée sur Twitter et avait la possibilité de discuter avec les gens du
monde entier, elle apprenait de ses discussions au fur et à mesure. Le chatbot est capable
d’alimenter sa base de connaissance en fonction des discussions quelle a. Malheureusement,
internet est une jungle trop vicieuse pour un tel enfant en plein apprentissage, et son manque
de sens critique l’a mené à sa perte. Après un bizutage des internautes, l’IA est devenue
antisémite, raciste et illogique. Vous trouverez à la suite du document les exemples les plus
flagrants de tweet écrits par Tay.

Page
54

Mémoire de fin d’études

Florian GRENIER

On ne peut donc pas nier que si aujourd’hui une intelligence artificielle forte voyait le jour,
nous aurions de nombreux problèmes et elle risquerait de vite divaguer si aucun sens critique
ou système de contrôle ne lui était inculqué.

Page
55

Mémoire de fin d’études

Florian GRENIER

6) Conclusion

Dans ce document, j’ai tenté d’expliquer les différents aspects de l’intelligence artificielle
ainsi que ses domaines d’application. J’ai analysé son existence dans notre quotidien et nous
avons pu voir qu’elle se trouve partout sous des aspects plus ou moins sophistiqués. J’ai pu
présenter l’étendue des possibilités qu’elle

nous offre et je peux en conclure que

l’intelligence artificielle peut aujourd’hui répondre à la plupart des besoins de l’homme en
termes de classification, analyse et proposition de solution. Mais cela reste un type de
développement réservé aux scientifiques de haut niveau ce qui explique son caractère exclusif
et rare.
Je rappel ma problématique : « Entre prouesses technologiques et volonté d’innovation,
l’intelligence artificielle dépassera-t-elle l’homme ? ».
Pour y répondre, l’intelligence à clairement dépassée l’homme dans de nombreux
domaines tels que les calculs, la classification et les analyses de données brutes. L’ordinateur
est beaucoup plus adapté que nous pour travailler avec de grosses masses d’informations ou
pour effectuer des calculs formels à grande vitesse sans jamais se tromper. Cependant si nous
devons lui faire effectuer des opérations nécessitant de l’intuition, de la créativité ou un sens
critique lié à nos sentiments, l’être humain reste encore le maitre de la situation.
Le travail que j’ai effectué dans ce mémoire n’est pas exhaustif, et ne comprend pas la
totalité de nos connaissance actuelles dans les domaines exploités, et il ne rentre pas dans les
détails techniques de réalisation des systèmes dont je parle. On ne peut donc pas affirmer
complètement que les conclusions que je tire sont véridiques mais elles tentent de s’en
approcher le plus possible. Par ailleurs, personne ne connait l’entière totalité des disciplines
étant en relation avec l’intelligence artificielle et donc potentiellement personne n’est à même
de pouvoir juger pleinement et de manière véridique une question aussi complexe que les
possibilités d’évolutions de l’IA.
Pour aller plus loin, il faudrait pouvoir commencer à développer les types d’intelligences
artificielles que j’énumère dans la première partie du mémoire. Avec une expérimentation
technique et une compréhension en profondeur des concepts, l’avis donné serait de meilleures
qualités et peut être radicalement différent (comme avec toutes sortes de vulgarisation).

Page
56

Mémoire de fin d’études

Florian GRENIER

On essaie de faire comprendre simplement des concepts complexes, on est donc obligé
d’omettre des informations qui nuirait à la bonne compréhension. Malheureusement ces
omissions participent à une potentielle mauvaise compréhension car elles constituent
l’essence même des principes de développement de systèmes intelligents.
Ce fut pour moi une expérience sans précédent de travailler sur ce sujet et j’espère vous
avoir apporté une analyse de qualité et une réflexion qui vous aura appris.

Page
57

Mémoire de fin d’études

Florian GRENIER

7) Webographie

https://www.irit.fr/Livret-IA/Livret-3/livret-IA.pdf
http://www.automatesintelligents.com/echanges/2008/jui/dossieria.html
https://www.lri.fr/~meghyn/papers/cours_IA.pdf
https://fr.wikipedia.org/
https://sites.google.com/site/int3llig3nc3artifici3ll3/avancees-possibles-de-l-ia
https://unmondemoderne.wordpress.com/2011/11/06/lintelligence-artificielle-necessite-oumenace/
http://www.oezratty.net/wordpress/2016/avancees-intelligence-artificielle-1/
https://medium.com/@AymericPM/lintelligence-artificielle-en-questions7e3dee4e2fc2#.7agpy1v9m
http://intelligenceartificielletpe.e-monsite.com/pages/l-intelligence-artificielle-progressemalgre-ses-limites.html
http://intelart.e-monsite.com/pages/iii-l-ia-dans-le-futur/ses-limites.html
http://www.latribune.fr/opinions/tribunes/les-limites-de-l-intelligence-artificielle-appliqueeau-marketing-548462.html
http://intelligence-artificielle-tpe.e-monsite.com/pages/limites-technologiques-et-ethique-de-lia/les-avances-faites-et-possibles.html
http://intelligence-artificielle-tpe.e-monsite.com/pages/limites-technologiques-et-ethique-de-lia/cerveau-humain-et-robot.html
http://tecfa.unige.ch/tecfa/publicat/schneider/these-daniel/wmwork/www/phd_93.html
http://cedric.cnam.fr/~crucianm/src/RFMN1.pdf
http://www.mbamci.com/assistant-personnel-deep-learning/
https://www.youtube.com/watch?v=g9c1gpDFdH4
http://www.developpez.com/actu/100639/Une-intelligence-artificielle-bat-des-experts-de-larmee-de-l-air-americaine-dans-des-simulations-de-combats-aeriens/
http://hightech.bfmtv.com/epoque/l-intelligence-artificielle-est-desormais-superieure-auxpilotes-de-chasse-998235.html
http://veille-techno.blogs.ec-nantes.fr/wp-content/uploads/2013/02/pvete12_rapport_iajv.pdf
http://www.planetesante.ch/Magazine/Actualites-et-recherche/Technologie/Intelligenceartificielle-la-medecine-en-mutation

Page
58