République Algérienne Démocratique et Populaire Ecole Normale Supérieurs d’Enseignement Technique -ORANDépartement de Génie Electrique

Magister 1ere
Option : Analyse et Commande des Machines Electrique

Module : Techniques d’optimisation

Optimisation par la méthode des essaims particulaires D’une fonction trigonométrique

Mr BOUZID Allal El Moubarek

allalbouzid@live.fr
Sous la direction de : Mr. ABDELMALEK
Année universitaire 2008-2009

Sommaire
Introduction Chapitre I Généralités 03 03 04 04 05 05 05 01

I-1 Informatique bio-inspirée I-2 Intelligence collective : conditions d’émergence I-3 Intelligence collective et insectes sociaux I-4 Trois règles locales … I-4-1 Séparation I-4-2 Alignement I-4-3 Cohésion Chapitre II PSO

II-1 L’optimisation par les essaims particulaires II-2 Principe de la PSO II-3 État et comportement d’une particule II-4 Information utilisée par une particule pour déterminer sa prochaine position II-4-2 Trois types de comportement à pondérer II-5 Points essentiels

08 08 09 09 10 12

Chapitre III Formalisation et simulation II.1 Configuration de la méthode II-1-1 Nombre de particules II-1-2 Topologie du voisinage II-1-3 Coefficients de confiance II-1-4 Vitesse maximale et coefficient de constriction II-1-5 Facteur d’inertie II-1-6 Initialisation de l’essaim II-1-7 Critères d’arrêt III-2. L’organigramme de principe de la méthode des essaims particulaires III-3 Variantes III-3. L’exemple de la fonction appliqué dans ce programme Conclusion Conclusion générale Bibliographie 13 13 13 14 14 14 15 15 16 17 17 19 21 22

Introduction Générale

1

Introduction

Introduction
Dans le but de créer des systèmes autonomes, robustes et évolutifs, une nouvelle forme d'ingénierie trouve son inspiration dans les systèmes naturels complexes. Par exemple, pour concevoir des systèmes sécurisés contre les intrusions, il est possible d'imaginer de nouveaux mécanismes inspirés des défenses immunitaires. Elles doivent être pensées comme des entités auto organisées, adaptatives et distribuées. L'optimisation des essaims particulaires (PSO) a été à l'origine conçue et présentée par Eberhart et Kennedy 1995. La PSO est un algorithme de recherche basé sur la population basé sur la simulation du comportement social des oiseaux, des abeilles ou d'une école des poissons. Cet algorithme prévoit à l'origine pour simuler graphiquement la chorégraphie gracieuse et imprévisible des gens d'oiseau. Chaque individu dans l'essaim est représenté par un vecteur dans l'espace de recherche multidimensionnel. Ce vecteur a également un vecteur assigné qui détermine le prochain mouvement de la particule et s'appelle le vecteur de vitesse. Sur notre monographie présenté par suite on va s’intéresser a définir l’optimisation par les essaims particulaires et bien comprendre comment fonctionne cette méthode en s’inspirent pour cela des animaux et leurs comportement puis on va finir par donné un exemple d’une fonction trigonométrique.

Chapitre I
Généralités

-3-

CHAPITRE I I-1 Informatique bio-inspirée

Généralités

La bio-inspiration est un changement de paradigme qui amène les ingénieurs à s'inspirer de la nature pour développer de nouveaux systèmes artificiels. Concerne: Végétaux. Animaux. Champignons, bactéries, virus, …. Génère des applications: Aéronautique, Matériaux composites, Intelligence (vie) artificielle, Nanotechnologies, … I-2 Intelligence collective : conditions d’émergence  Une information locale et limitée:  Chaque individu ne possède qu'une connaissance partielle de l’environnement.  Il n'a pas conscience de la totalité des éléments qui influencent le groupe.  Un ensemble de règles simples:  Chaque individu obéit à un ensemble restreint de règles simples par rapport au comportement du système global.

 Les interactions sont multiples:  Chaque individu est en relation avec seulement un ou plusieurs autres individus du groupe.  La structure émergente est utile à la collectivité  Les individus trouvent un bénéfice à collaborer et leur performance est meilleure que s'ils avaient été seuls.

Le cas des oiseaux migrateurs Les oiseaux migrateurs doivent parcourir de très longues distances, dans des conditions parfois difficiles Optimiser leur déplacement en termes d'énergie dépensée  Les oies sauvages adoptent des formations en V o chaque oiseau prend l'aspiration de son prédécesseur o permet d'étendre la distance de vol de près de 70%

-4-

CHAPITRE I

Généralités

Le prix à payer : o Un individu seul vole en moyenne 24% plus vite qu'une volée o Donc il y a une perte en vitesse

I-3 Intelligence collective et insectes sociaux:  L'intelligence collective s'observe :  Insectes sociaux (fourmis, termites et abeilles).  Animaux se déplaçant en formation (oiseaux migrateurs, bancs de poissons)

Points communs qui caractérisent l'intelligence collective : Les individus sont « grégaires » car ils obtiennent un avantage substantiel à chasser, se déplacer ou vivre en groupe. Interagissent de manière locale par le moyen de signaux (grognement, phéromones, attitudes). L'individu seul répond instinctivement à certains changements de comportement. La coordination du groupe est implicite. Elle se fait au travers de règles comportementales très simples au niveau individuel.

-

-

I-4 Trois règles locales …  Comprendre ces phénomènes et la coordination des mouvements (parfois très brusques) de ces populations.  Chaque « individus » se déplace selon sa propre perception de l'environnement avec des règles simples :  Règle de séparation.  Règle d'alignement (mimétisme).  Règle de cohésion.

-5-

CHAPITRE I I-4-1 Séparation : Ne pas heurter ses voisins en s'éloignant des proches proches.

Généralité Généralités

Figure I : Séparation des individus I-1 I-4-2 Alignement : Se déplacer dans la même direction que l'ensemble en moyennant les vitesses et les directions.

I-4-3 Cohésion : Se maintenir dans le groupe en se déplaçant vers le centre perçu de la formation

-6-

CHAPITRE I

Généralités

Ces trois règles de bases, permettent l'attraction et la répulsion de chacun des individus et permet la stabilité de l'ensemble.

Plus de nouvelles règles qui sont:   Atteindre un but (perchoir, arbre, nourriture, …) En PSO chaque entité est une solution et le but global est de se rapprocher de la meilleure

Chapitre II
L’optimisation par essaims particulaires

-8-

CHAPITRE II

Optimisation par les essaims particulaires

II-1 L’optimisation par les essaims particulaires Optimisation par essaims particulaires (PSO) est relativement un nouvel algorithme de l'érudition computation, en premier a introduit par James Kennedy et Russell Eberhart en 1995. Il porte quelque ressemblance à computation évolutionnaire. L'objectif de PSO est trouver l'optimum global de quelque multidimensionnel (habituellement non linéaire) fonction. L'algorithme a prouvé efficace dans résoudre beaucoup de problèmes. Dans PSO, la recherche à travers l'espace du problème peut être pensée de comme le vol d'un essaim de particules (points dans l'espace). L'objectif est avoir les particules converger sur l'optimum de la fonction, beaucoup comme un troupeau d'oiseaux converge sur quelque destination. Les particules sont distribuées initialement aléatoirement à travers le problème espacez et donné une vélocité initiale. Chaque particule se tient au courant de son emplacement et aptitude (la valeur de la fonction qui est optimisée), aussi bien que la meilleure place (et aptitude correspondante) il a rencontré si loin dans son vol. Avec le temps, la vélocité de chaque particule est ajustée afin qu'il déplace stochastique vers sa propre meilleure place et la meilleure place a trouvé par une autre particule dans son voisinage. Le voisinage d'une particule est le sous-ensemble de particules dans l'essaim avec lequel il a la communication directe. Ce réseau de rapports entre toutes les particules est connu comme la sociométrie, ou topologie de l'essaim. II-2 Principe de la PSO  Elle a des agents avec des capacités de perception, mémorisation et calcul limitées.  Elle est dynamique induite par des interactions locales.  Observation de comportements globaux « émergents ».  Une population d’agents (ici particules).  Coopération plutôt que Compétition.  Efficace sur un espace de recherche continu.  Dynamiques définis sur un espace temps discret.

-9-

CHAPITRE II La PSO est efficace dans des domaines variés :  Régulation de systèmes électriques.  Conception d'ailes d'avions.  Analyse d'images. II-3 État et comportement d’une particule

Optimisation par les essaims particulaires

 Modèle social simplifié:  Mime le comportement d’une nuée d’oiseaux (ou banc de poissons).  Basé sur les règles qui permettent de soudain changement de direction, dispersion, regroupement, etc.  État (instantané) d’une particule:  position (représente une solution du problème).  vitesse (direction pour un futur déplacement).  Comportement : o Se déplacer dans l’espace de recherche. o dans le but de se positionner sur des solutions optimales.

II-4 Information utilisée par une particule pour déterminer sa prochaine position:  Sa vitesse actuelle.  Sa meilleure performance.  La meilleure performance de ses voisines.  D’où trois types de comportement …  égoïste : suivre sa propre voie.  conservateur : revenir en arrière.  panurgien : suivre aveuglement le meilleur de tous. III-4-1 Compromis entre les trois types de comportement.  Un déplacement est finalement une combinaison.  Pondérée des trois types de mouvement ; pris en compte de :  l’état instantané : position & vitesse (mémoire propre à court terme).  performance personnelle (mémoire propre à long terme).  performance des voisins (mémoire partagée). Compromis psycho-social, entre confiance en soi et influence de ses relations sociales…

- 10 -

CHAPITRE II

Optimisation par les essaims particulaires

II-4-2 Trois types de comportement à pondérer:

Figure II-1 Schéma de principe du comportement des particules d’un essaim. Pour chaque particule et chaque dimension: Équation 1: v(t+1) = w*v(t) + R(c)*(p(t)-x(t)) + R(c)*(g(t)-x(t)) Où Équation 2: x(t+1) = x(t) + v(t+1)    

v(t) := vitesse au temps t. x(t) := position au temps t. p(t) := la meilleure position précédente de la particule. g(t) := la meilleure position parmi les meilleures positions précédentes des informateurs de la particule.  R(c) := un nombre venant d'une distribution aléatoire, qui dépend de « c » dans cette norme, la distribution est uniforme sur [0, c]. Initialisation  1 Particule = 1 solution du problème d’optimisation.  Pour chaque particule : 1. Fixer sa position au hasard dans l’espace de recherche. 2. Fixer sa vitesse au hasard. 3. Définir son voisinage:  géographique (distance), et donc dynamique.  social, et donc fixe.

- 11 -

CHAPITRE II Définition du voisinage

Optimisation par les essaims particulaires

 Géographique  Nécessite une notion de distance.  Doit être mis a jour à chaque déplacement donc dynamique.  Social  Fixé une fois pour toute à l’initialisation. Fixé une fois pour toute à l’initialisation sur un cercle virtuel. En fait converge vers un voisinage géographique.

Figure II.2. Le cercle virtuel pour un essaim On suppose toutes les particules disposées (symboliquement) en cercle et, pour la particule étudiée, on inclut progressivement dans ses informatrices, d’abord elle- même, puits les plus proches à sa droite et à sa gauche, de façon à atteindre le total requis. Il y a bien sur de nombreuses variantes, y compris celle consistant à choisir les informatrices au hasard. Mais celle-ci est à la fois simple et efficace. Une fois la meilleure informatrice détectée, la modification de la vitesse est une simple combinaison linéaire de trois tendances. A l’aide de coefficients de confiance :    La tendance «aventureuse», consistant à continuer selon la vitesse actuelle. La tendance «conservatrice », ramenant plus ou moins vers la meilleure position déjà trouvée. La tendance « panurgisme», orientant approximativement vers la meilleure informatrice.

Les termes « plus ou moins» ou « approximativement» font référence au fait que le hasard joue un rôle, grâce a une modification aléatoire limitée les coefficients de confiance, ce qui favorise l’exploration de l’espace de recherche.

- 12 -

CHAPITRE II

Optimisation par les essaims particulaires

La figure II-2 présente un schéma de principe résumant les explications si dessus. Naturellement, pour pouvoir être programmé, tout ceci est formalisé dans des équations de mouvement.

II-5 Points essentiels - Inspiré par les interactions sociales ou les déplacements d’un groupe d’animaux. - Pour chaque particule :  Persistance : durée de vie « illimitée ».  Capacités de mémorisation de son état propre: o court terme. o long terme.  Coopérer plutôt que concurrencé.  Chacun est producteur et consommateur d’information.  Capacité de perception de son environnement proche:  au sens géographique.  au sens social.  Pas de mécanisme de sélection:  Une particule même actuellement médiocre est conservée.  elle permettra peut-être le succès futur du fait qu’elle « sort de sentiers battus ».  Chacune est « teacher et learner »

Chapitre III
Formalisation et simulation

13 III.1 Configuration de la méthode III.1.1 Nombre de particules :

Formalisation et simulation

La quantité de particules allouées à la résolution du problème dépend essentiellement de deux paramètres :  la taille de l’espace de recherche et le rapport entre les capacités de calcul de la machine et le temps maximum de recherche. Il n’y a pas de règle pour déterminer ce paramètre, faire de nombreux essais permet de se doter de l’expérience nécessaire à l’appréhension de ce paramètre.

III.1.2 Topologie du voisinage : La topologie du voisinage défini avec qui chacune des particules va pouvoir communiquer. Il existe de nombreuses combinaisons dont les suivantes sont les plus utilisées : a) topologie en étoile : chaque particule est reliée à toutes les autres, ie. L’optimum du voisinage est l’optimum global ; b) topologie en anneau : chaque particule est reliée à n particules (en général, n = 3), c’est la topologie la plus utilisée ; c) topologie en rayon : les particules ne communiquent qu’avec une seule particule centrale ;

Figure II.1 ; (a) anneau (avec n=2), (b) rayon, (c) étoile

Le voisinage géographique auquel nous sommes amenés à penser en premier lieu n’est pas nécessairement pertinent car, d’une part, il s’agirait d’un voisinage trop local, et d’autre part car la sociabilisassions des particules tend à rendre tout voisinage social en voisinage géographique. Enfin, c’est un voisinage très lourd en terme de calculs car nécessitant de recalculer le voisinage de chaque particule à chaque itération.

14 III.1.3 Coefficients de confiance .3

Formalisation et simulation

Les variables de confiance pondèrent les tendances de la particule à vouloir suivre son instinct de conservation ou son panurgisme. Les variables aléatoires r1 et r2 peuvent être définis de la façon suivante :

Où r1 et r2 suivent une loi uniforme sur [0 et c1 et c2 sont des constantes positives [0:1] déterminées de façon empirique et suivant la relation c1+c2  4. III.1.4 Vitesse maximale et coefficient de constriction .4 Afin d’éviter que les particules ne se déplacent trop rapidement dans l’espace de recherche, passant éventuellement à côté de l’optimum, il peut être nécessaire de fixer une vitesse maximale (notéeVmax ) pour améliorer la convergence de l’algorithme. algorithme. Cependant, on peut s’en passer si on utilise un coefficient de constriction k — introduit par Maurice CLERC [1] — et qui permet de resserrer l’hyper espace de recherche. l’hyper-espace L’équation de la vitesse devient alors :

Les études de SHI et EBERHART i indiquent que l’utilisation d’un coefficient de constriction donne généralement un meilleur taux de convergence sans avoir à fixer de vitesse maximale. Cependant, dans certains cas, le coefficient de constriction seul ne permet pas la convergence vers la solution optimale pour un nombre d’itérations donné. Pour résoudre ce olution problème, il peut être intéressant de fixer

Vmax  x max

en plus du coefficient de constriction,

ce qui, selon les études de SHI et EBERHART, permet d’améliorer les performances globales de l’algorithme.

15 III.1.5 Facteur d’inertie

Formalisation et simulation

Le facteur d’inertie  — introduit par SHI et EBERHART — permet de définir la capacité d’exploration de chaque particule en vue d’améliorer la converge de la méthode. Une grande valeur de  (>1) est synonyme d’une grande amplitude de mouvement et donc, in fine, d’exploration globale. A contrario, une faible valeur de (< 1) est synonyme de faible amplitude de mouvement et donc, d’exploration locale. Fixer ce facteur, revient donc à trouver un compromis entre l’exploration locale et l’exploration globale. Le calcul de la vitesse est alors défini par :

La taille du facteur d’inertie influence directement la taille de l’hyper l’hyper-espace exploré et aucune valeur de  ne peut garantir la convergence vers la solution optimale. Les études menées par SHI et EBERHART indiquent une meilleure convergence pour  [0:8;1:2]. Au delà de 1:2, l’algorithme tend à avoir certaines difficultés à converger. D’après les recherches prouvées il est également possible de faire diminuer le facteur prouvées, d’inertie au cours du temps, un peu à la manière de la température dans un algorithme de recuit simulé (Simulated Annealing). De bons résultats ont été trouvés pour une valeur décroissant linéairement de 0:9 à 0:4. Pour de plus amples informations sur le réglage de ce paramètre, veuillez vous référer à la thèse de VAN DEN BERGH [ [6]. III.1.6 Initialisation de l’essaim .6 La position des particules ainsi que leur vitesse initiale doivent être initialisés aléatoirement selon une loi uniforme sur [0::1]. Cependant, en ce qui concerne la position des ent particules, il est préférable d’utiliser un générateur de séquence de SOBOL qui est plus pertinent dans la disposition homogène des particules dans un espace de dimension n. III.1.7 Critères d’arrêt Comme indiqué précédemment, la convergence vers la solution optimale globale n’est pas garantie dans tous les cas de figure même si les expériences dénotent la grande performance de la méthode. De ce fait, il est fortement conseillé de doté l’algorithme d’une porte de sortie en définissant un nombre maximum d’itération (que nous noterons nbItermax).

16

Formalisation et simulation L’algorithme doit alors s’exécuter tant que l’un des critères de convergence suivant n’a pas été atteint : – nbItermax a été atteint ; – la variation de la vitesse est proche de 0 ; – le fitness de la solution est suffisant. III.2. L’organigramme de principe de la méthode des essaims particulaires : Schéma de principe de l’algorithme est donné par la figure suivante.

Pour programmer cette méthode, on a plusieurs compilateurs qui peuvent programmer la méthode des essaims particule, et pour cela nous avons programmé en C. (Voir l’annexe : code source en C d’une version simple d’OEP). Bien sur on suivant l’organigramme précédent.

17 III-3 Variantes

Formalisation et simulation

 Facteur de constriction : cas particulier de coefficient d’inertie v(t+1) = c.[v(t)+c2.(p-x(t))+c3.(g-x(t))]     Où c est le facteur de “constriction” de valeur fixe. Sa était proposé par Clerc & Kennedy Afin d’améliore grandement les performances Une particule est attirée par chaque particule de son voisinage « Proposé par Mendes et al ».

III-4 Simulation des fonctions : Sur notre 1er exemple on va étudier une fonction quadratique, qu’on a déjà résolue dans le cours des techniques d’optimisation et on a trouvé la valeur min de cette fonction x= 6. Maintenant on va nous diriger vers la technique de PSO pour comparer les résultats de la simulation avec la valeur trouvé analytiquement Exemple1 : fonction quadratique F(x)=2* x 3 -21 * x 2 +36 * x - 20 Les paramètres appliqués dans notre programme de PSO :             Coefficient de confiance en la tendance actuelle : Coefficient de confiance maximale en les informatrices : Dimension de l'espace de recherche : Précision souhaitée double : Nombre maximum d'évaluations de la fonction : Intervalle pour l'espace de recherche : Valeur minimale à atteindre, à la précision près : Nombre moyen d'évaluations double : Numéro de la fonction à minimiser : Nombre de liens d'information : Taille de l'essaim : Nombre d'exécutions c1=0.738. cmax=1.51. D=1. eps=0.00001. eval_max=2000 * xmin=1, xmax=10; fmin=0 eval_moyen=0. fonction=6. k=3 N =20 n_exec_max=10;

18 Écriture en langage C : case 6: //fonction de cour quadratique // //F(x)=2* x 3 -21 * x 2 +36 * x - 20// f=0; for(d=0;d<D;d++) {

Formalisation et simulation

f=f+(2*x.x[d]*x.x[d]*x.x[d]-21*x.x[d]*x.x[d]+36*x.x[d]-20);

} break; Après simulation on obtient les résultats suivant : Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000002 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):5.999999 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 Eval= 2000. Meilleure position (valeur -128.000000 ):6.000000 On va dire que la valeur minimum de notre fonction est de x=6 comme celle qu’on a trouvé dans le cours précédemment.

19

Formalisation et simulation Sur notre 2éme exemple on va étudier une fonction trigonométrique, qu’on a déjà résolue dans le cours des techniques d’optimisation et on a trouvé la valeur min de cette fonction x= π/2 = 1.57 Maintenant on va nous diriger vers la technique de PSO pour comparer les résultats de la simulation avec la valeur trouvé analytiquement Exemple2 : fonction trigonométrique F(x) = 1+2*sin (x) + 3* cos2(x)             Coefficient de confiance en la tendance actuelle : c1=0.738. Coefficient de confiance maximale en les informatrices : cmax=1.51. Dimension de l'espace de recherche : D=1. Précision souhaitée double : eps=0.00001. Nombre maximum d'évaluations de la fonction : eval_max=2000 * Intervalle pour l'espace de recherche : xmin=1, xmax=2; Valeur minimale à atteindre, à la précision près : fmin=0 Nombre moyen d'évaluations double : eval_moyen=0. Numéro de la fonction à minimiser : fonction=5. Nombre de liens d'information : k=3 Taille de l'essaim : N =20 Nombre d'exécutions n_exec_max=10;

Écriture en langage C : case 5: //fonction trigonométrique :

//

F(x) = 1+2*sin (x) + 3* cos2(x)

f=0; for(d=0;d<D;d++) {

f=f+(1+2*sin(x.x[d])+3*(cos(x.x[d])*cos(x.x[d]))) ; } break;

20 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796 Eval= 2000. Meilleure position (valeur 3.000000 ):1.570796

Formalisation et simulation

Comme c’es une fonction trigonométrique et aussi périodique donc le min de cette fonction est de 1.570796 = π/2. Conclusion Dans ce chapitre on a pue étudier le cas d’une fonction trigonométrique et on peut tirer les conclusions suivant :  La PSO est plus performante pour: 1- Précision. 2-Temps de calcul très court ce qui la rend puissante.  L’augmentation du nombre d’itération ne garantie pas l’amélioration de la qualité des solutions.  L’inconvénient que possède la PSO: L'essaim peut prématurément converger.  Tout changement d’un paramètre peut avoir un effet sur le fonctionnement de l’algorithme et sur la solution obtenue.  Plusieurs variantes ont était développées, pour faire face aux inconvenants de la PSO.

Conclusion Générale

21

Conclusion

Conclusion
Comme conclusion pour notre monographie, on peut déduire que l’approche d’estimation de paramètres en utilisant la PSO a été prouvée plus performante pour sa précision et son temps de calcul très court ce qui la rend puissante.  Méthode d’optimisation relativement jeune.  Partiellement comprise sur le plan théorique.  Très facile à programmer.  Nombreux perfectionnements astucieux restent à faire.

- 21 -

Bibliographie

22

[Tapez le titre du document]

Bibliographie
[1] Maurice Clerc and James Kennedy. The particle swarm - explosion, stability, and convergence in a multidimensional complex space. IEEE Trans. Evolutionary Computation, 6(1) :58–73, 2002. [2] Russell C. Eberhart, Yuhui Shi, and James Kennedy. Swarm Intelligence. The Morgan Kaufmann Series in Artificial Intelligence. Morgan Kaufmann, San Francisco, CA, USA, 2001. [3] E. Bonabeau, M. Dorigo and G. Theraulaz. Inspiration for optimization from social insect behaviour. Nature, Vol. 406, juillet 2000, pp. 39-42 [4] Bonabeau, E. & Theraulaz, G. (2000). Swarm Smarts. Scientific American, 282 (3): pp. 72-79 [5] E. Bonabeau, M. Dorigo and G. Theraulaz. (1999) Swarm Intelligence: From Natural to Artificial Systems. Oxford University Press [6] F. van den Bergh. An Analysis of Particle Swarm Optimizers. PhD thesis, Department of Computer Science, University of Pretoria, November 2002. [7] Machine Nature: The Coming Age of Bio-Inspired Computing, by Moshe Sipper, McGraw-Hill, New York,2002. [8] Les systèmes complexes : mathématiques & biologie, H. P. Zwirn, ed. Odile Jacob Sites Internet : Méthode des essaims particulaires : http://www.particleswarm.net/Séminaire OEP’2003 http://www.particleswarm.net/oep_2003/ http://www.particleswarm.info/ Groupe de travail sur les métaheuristiques : http://www.lifl.fr/~talbi/META Livre récent sur les métaheuristiques : http://www.eyrolles.com/php.informatique/Ouvrages/ouvragem.php3?ouv_ean13 =9782212113686

Sign up to vote on this title
UsefulNot useful