You are on page 1of 9

Algoritma Koloni Semut (ACO

)
Ant Colony Optimization ACO atau Algoritma Koloni Semut adalah sebuah probabilistik komputasi teknik untuk memecahkan masalah yang dapat dikurangi untuk menemukan jalur yang baik melalui grafik.

Algoritma ini adalah anggota dari keluarga algoritma koloni semut, pada intelijen segerombolan metode, dan hal itu merupakan beberapa metaheuristic optimasi. Awalnya diusulkan oleh Marco Dorigo tahun 1992 di gelar PhD tesis [1] [2], algoritma pertama yang bertujuan untuk mencari jalan yang optimal dalam grafik; berdasarkan perilaku semut mencari jalan antara koloni dan sumber makanan . Aslivvz ide ini telah diversifikasi untuk menyelesaikan kelas yang lebih luas dari masalah numerik, dan sebagai hasilnya, beberapa masalah telah muncul, menggambar tentang berbagai aspek perilaku semut.

Ringkasan
Di dunia nyata, semut (awalnya) berjalan secara acak, dan ketika menemukan makanan kembali ke koloni mereka sambil meletakkan feromon jejak. Jika semut lain menemukan jalur tersebut, mereka tidak cenderung untuk menjaga bepergian secara acak, tapi malah mengikuti jejak, kembali dan menguatkannya jika pada akhirnya mereka menemukan makanan. Seiring waktu, Namun, jejak feromon mulai menguap, sehingga mengurangi kekuatan yang menarik. Semakin banyak waktu yang diperlukan untuk seekor semut melakukan perjalanan menyusuri jalan setapak dan kembali lagi, semakin banyak waktu yang harus feromon menguap. Jalan pendek, dengan perbandingan, akan berjalan lebih cepat, dan dengan demikian kerapatan feromon akan tetap tinggi seperti yang diletakkan di jalan secepat dapat menguap. Penguapan feromon juga mempunyai keuntungan untuk menghindari konvergensi solusi optimal secara lokal. Jika tidak ada penguapan sama sekali, jalur yang dipilih oleh semut pertama akan cenderung menarik secara berlebihan yang berikut. Dalam hal ini, eksplorasi ruang solusi akan dibatasi. Jadi, ketika seekor semut menemukan yang baik (yakni, pendek) jalur dari koloni ke sumber makanan, semut lain lebih cenderung mengikuti jalan, dan umpan balik yang positif pada akhirnya menyebabkan semua semut berikut satu jalan. Ide dari algoritma koloni semut adalah untuk meniru perilaku ini dengan "simulasi semut" berjalan di sekitar grafik yang menunjukkan masalah yang harus diselesaikan. Detail Gagasan awalnya berasal dari mengamati makanan eksploitasi sumber daya di antara semut, di mana semut 'secara individual memiliki kemampuan kognitif terbatas secara kolektif mampu menemukan jalur terpendek antara sumber makanan dan sarang.

dalam waktu yang sama. Semut pertama menemukan sumber makanan (F).. 1.. Sistem ini disebut "Stigmergy" dan terjadi di banyak hewan sosial masyarakat (hal itu telah dipelajari dalam kasus pembangunan pilar dalam sarang rayap).... semua rincian status mereka "bekerja". ... Dalam serangkaian percobaan pada koloni semut dengan pilihan antara dua tidak sama panjang jalan yang mengarah ke sumber makanan.... di dekatnya semut akan cenderung mengikuti... Jika dua rute yang mungkin untuk mencapai sumber makanan yang sama.. 8. [3] [4] Sebuah model yang menjelaskan perilaku ini adalah sebagai berikut 1. itu kembali lebih atau kurang langsung ke sarang. 5.... meninggalkan dalam jalur jejak feromon.. semut ini akan memperkuat rute.. lebih atau kurang langsung... Feromon ini yang menarik.. yang lebih pendek akan. yang ditempuh oleh lebih banyak semut daripada rute yang panjang akan 6. 3. feromon yang mudah menguap.. trek. ahli biologi telah mengamati bahwa semut cenderung menggunakan rute terpendek... Semut mengambil rute terpendek... tapi penguatan landasan membuatnya lebih menarik sebagai rute terpendek.. Jika menemukan sumber makanan.. 4... Semut menggunakan lingkungan sebagai media komunikasi... Akhirnya...... Mereka bertukar informasi secara tidak langsung dengan mendepositokan feromon. 3.. dan karena itu menjadi lebih menarik. Kembali ke koloni. Semut (disebut "kilat") berjalan lebih atau kurang secara acak di sekitar koloni.. Rute pendek akan semakin ditingkatkan.... meninggalkan jejak feromon (b) 2..... Bertukar informasi memiliki lingkup lokal. 2. Rute yang panjang akhirnya akan menghilang. kemudian kembali ke sarang (N). semua semut telah ditentukan dan karena itu "dipilih" rute terpendek... hanya seekor semut yang terletak di mana feromon dibiarkan mempunyai pengertian dari mereka. 7. .. melalui cara apapun (a). Semut tanpa pandang bulu cara mengikuti empat kemungkinan... panjang bagian-bagian dari cara-cara lain kehilangan jejak feromon.

4. algoritma koloni semut dapat dijalankan terus menerus dan beradaptasi dengan perubahan secara real time. Setelah setiap iterasi. deposit semut lebih feromon pada semua sisi itu dilalui. . 3. sedikit variasi pada pinggir akan diperkuat dan dengan demikian memungkinkan pilihan dari tepi. tidak ada rute yang akan dipilih. Pada setiap tahap. Hal ini menarik dalam routing jaringan dan sistem transportasi perkotaan. 2. multi-target dan implementasi paralel. karena umpan balik. mulai dari penugasan kuadrat melipat protein atau routing kendaraan dan banyak metode yang diturunkan telah disesuaikan untuk masalah dinamis dalam variabel-variabel riil. Semakin kuat jejak feromon diletakkan pada tepi antara dua kota. Sebuah kota yang jauh memiliki lebih sedikit kesempatan untuk dipilih (visibilitas). Sistem ini didasarkan pada umpan balik positif (yang deposit menarik feromon semut lain yang akan memperkuat sendiri) dan negatif (disipasi dari rute oleh sistem mencegah penguapan dari labrakan). untuk negara yang stabil di mana rute terdiri dari tepi paling kuat. Setelah menyelesaikan perjalanannya. 5.Mekanisme untuk menyelesaikan masalah terlalu kompleks untuk ditangani oleh satu semut adalah contoh yang baik dari diri-sistem terorganisir. jika jumlah feromon tetap sama dari waktu ke waktu pada semua sisi. Ini juga telah digunakan untuk menghasilkan solusi optimal mendekati ke masalah salesman keliling. jejak feromon menguap. jika perjalanan pendek. Namun. Harus mengunjungi setiap kota tepat satu kali. Aplikasi Algoritma optimisasi koloni semut telah diterapkan ke banyak permasalahan optimasi kombinatorial. semut memilih untuk berpindah dari satu kota ke yang lain menurut beberapa aturan: 1. Secara teoritis. Algoritma optimisasi koloni semut telah digunakan untuk menghasilkan solusi optimal mendekati ke masalah salesman keliling. This is of interest in network routing and urban transportation systems. Algoritma akan bergerak dari keadaan yang tidak stabil di mana tidak ada ujung lebih kuat daripada yang lain. masalah-masalah stokastik. semakin besar kemungkinan bahwa tepi akan dipilih. Mereka memiliki kelebihan simulasi annealing dan algoritma genetika pendekatan masalah serupa saat grafik mungkin berubah secara dinamis. Sebagai contoh yang sangat bagus.

000 contoh's × 375 piksel. j adalah jumlah feromon di tepi i. Pseudo-kode besar berkas: 85 KB) dan formula ACO_MetaHeuristic while procedure dari node i ke node j dengan Selection: probabilitas di mana τ i . j τ i. j is the amount of pheromone on edge i . Salah satu procedure while(not_termination) generateSolutions() daemonActions() pheromoneUpdate() end end Edge Semut akan bergerak nominal 1. j .svg (Berkas SVG. j α is a parameter to control the influence of τ i . j α adalah parameter untuk mengontrol pengaruh τ i.Aco_TSP.

1. j + Δτ i. j Pheromone Update Feromon Update τ i . pada salib-entropi dan algoritma Estimasi distribusi. Max-Min Ant System (MMAS) [6] Ditambahkan Maksimum dan Minimum jumlah feromon [τ max. j adalah jumlah feromon diendapkan. j τ i. j β adalah parameter untuk mengontrol pengaruh η i. Common ekstensi    Berikut adalah beberapa variasi paling populer Algoritma ACO 1. τmin] Hanya global iterasi terbaik atau disetor wisata terbaik feromon  Semua tepi-tepi yang telah siap untuk melakukan τ max dan reinitialized untuk τ max ketika mendekati stagnasi.ρ) τ i. j = (1 . pseudo-acak proporsional aturan. typically 1 / d i . Jumlah feromon disimpan kemudian bobot untuk setiap solusi. dan kemudian algoritma untuk ACS dan MMAS. lebih umum.η i . j . grafik berbasis algoritma sistem semut. Elitis Sistem Ant Solusi terbaik global deposito feromon pada setiap iterasi bersama dengan semua semut lain 1. biasanya diberikan oleh di mana Lk adalah biaya dari th k tur semut (biasanya panjang). j adalah jumlah feromon pada sisi tertentu i. adalah mungkin untuk membuktikan bahwa itu konvergen (mis. j adalah keinginan tepi i. sangat sulit untuk memperkirakan kecepatan teoritis konvergensi. j + Δτ i . where d is the distance) η i. Seperti kebanyakan metaheuristics. j is the desirability of edge i . j = (1 − ρ)τ i . itu mampu menemukan global optimum dalam waktu tertentu). j (a priori pengetahuan. . biasanya1 / d i. Zlochin dan koleganya [8] telah menunjukkan tipe COA dapat diasimilasikan algoritma metode stokastik gradient descent. j ρ adalah feromon tingkat penguapan dan Δτ i. sehingga solusi yang lebih baik deposito kebugaran lebih feromon daripada solusi dengan kebugaran lebih buruk Untuk beberapa versi algoritma. j (a priori knowledge. Hal ini diamati bahwa sejak itu mulai penggunaannya telah menyebar ke daerah klasifikasi [9] dan image processing. Mereka mengusulkan bahwa metaheuristics sebagai "model berbasis penelitian" Contoh-contoh lainnya Algoritma koloni semut ini awalnya digunakan terutama untuk menghasilkan solusi optimal mendekati ke masalah salesman keliling dan. Rank Berbasis Ant System (ASrank)  Semua solusi yang peringkat menurut kebugaran mereka. Bukti pertama konvergensi algoritma koloni semut dibuat pada tahun 2000. di mana d adalah jarak) β is a parameter to control the influence of η i . telah disajikan di atas [7] 1. masalah-masalah optimasi kombinatorial. j. Pada tahun 2004. j where di mana τ i.

 Simulated annealing (SA) adalah berkaitan dengan teknik pengoptimalan global yang melintasi ruang pencarian dengan menghasilkan solusi tetangga solusi saat ini. antara dua titik A dan B. tidak perlu bahwa semut benar-benar perjalanan rute terpendek: rute terpendek dapat dibangun dari segmen terkuat solusi yang terbaik. Proses pencarian solusi unggul meniru bahwa evolusi. Menurut beberapa penulis. mereka menggunakan konstruksi berulang-ulang solusi. Dalam versi untuk masalah kombinatorial. Stigmergy algoritma Ada dalam prakteknya sejumlah besar algoritma yang mengaku sebagai "koloni semut". tanpa selalu berbagi kerangka umum optimasi oleh koloni semut kanonik (COA). jalan terpendek dalam grafik. pengurutan larva. Tetangga yang lebih . meskipun tidak ada semut akan terbukti efektif. pembagian kerja dan kooperatif transportasi. Semut menandai solusi terbaik dan memperhatikan tanda-tanda sebelumnya untuk mengoptimalkan pencarian mereka. Dalam prakteknya. Perilaku kolektif serangga sosial tetap menjadi sumber inspirasi bagi peneliti. dalam contoh dari penjual Travelling masalah. Related metode  Algoritma genetik (GA) mempertahankan genangan solusi daripada hanya satu.Sebuah kesulitan dalam definisi Dengan algoritma ACO. dibangun dari kombin asi beberapa jalan. hal yang membedakan algoritma ACO dari sanak keluarga lainnya (seperti algoritma untuk memperkirakan distribusi atau partikel kawanan optimasi) adalah justru mereka aspek konstruktif. [10]. Secara umum. Dalam masalah kombinatorial. penggunaan pertukaran informasi antara semut melalui lingkungan (sebuah prinsip yang disebut "Stigmergy") adalah dianggap cukup untuk sebuah algoritma untuk termasuk dalam kelas dari algoritma koloni semut. Namun. karena definisi dapat bervariasi menurut para penulis dan penggunaannya. Prinsip ini telah mendorong beberapa penulis untuk menciptakan istilah "nilai" untuk mengatur metode dan perilaku yang didasarkan pada makanan pencarian. di mana tidak ada struktur 'tetangga' ada. algoritma koloni semut dianggap sebagai dihuni metaheuristics solusi dengan masing-masing diwakili oleh semut bergerak dalam ruang pencarian. dengan solusi berkualitas rendah yang dibuang. definisi ini bisa menimbulkan masalah dalam kasus masalah dalam variabel-variabel riil. adalah mungkin bahwa solusi terbaik pada akhirnya akan ditemukan. dengan solusi yang sedang digabungkan atau bermutasi untuk mengubah kolam solusi. Berbagai macam algoritma (untuk pengoptimalan atau tidak) mencari diri-organisasi dalam sistem biologis telah menyebabkan konsep "kecerdasan berkerumun". Mereka dapat dilihat sebagai probabilistik multi-agen algoritma menggunakan distribusi probabilitas untuk melakukan transisi antara setiap iterasi. yang merupakan kerangka kerja yang sangat umum di mana algoritma koloni semut cocok. Jadi. Tidaklah mudah untuk memberikan definisi yang tepat tentang apa algoritma atau tidak sebuah koloni semut.

   1996. pelaksanaan model perilaku untuk makanan oleh Ebling dan rekan-rekannya [14]. sebuah daftar tabu dipertahankan parsial atau solusi lengkap. Bilchev dan mempublikasikan Parmee usaha pertama untuk beradaptasi dengan masalah-masalah yang berkelanjutan [16]. . yang akan memberikan ide Algoritma optimisasi koloni semut [3].  1991. Colorni).  1995. Sejarah  1959. karya Goss.  1989. penerbitan artikel di Ant [5]. M. dan Moyson Manderick memiliki artikel tentang organisasi diri di antara semut [13]. Hal ini dilarang untuk pindah ke sebuah solusi yang berisi elemen dari daftar tabu.rendah diterima probabilistically didasarkan pada perbedaan kualitas dan parameter suhu. Pasteels di Deneubourg dan perilaku kolektif semut Argentina. memperluas ACO.  1989. tabu cari solusi menghasilkan banyak bermutasi dan bergerak ke solusi dengan kesesuaian terendah yang dihasilkan. yang diperbarui sebagai solusi solusi melintasi ruang. Maniezzo dan A. 1988. ntuk mencegah bersepeda dan mendorong gerakan yang lebih besar melalui ruang solusi. a technical report [ 15 ] was published five years later [ 5 ] .  Buatan sistem kekebalan (AIS) adalah algoritma yang meniru sistem kekebalan tubuh vertebrata. Dorigo mengusulkan Sistem Ant tesis doktoralnya (yang diterbitkan pada tahun 1992 [2] dengan V. Aron. laporan teknis [15] diterbitkan lima tahun kemudian [5]. Pierre-Paul Grass menemukan teori Stigmergy untuk menjelaskan perilaku bangunan sarang rayap [11]. Parameter suhu ini dimodifikasi sebagai kemajuan algoritma untuk mengubah sifat pencarian. Sementara simulasi anil hanya satu bermutasi menghasilkan solusi.  Tabu search (TS) mirip dengan simulasi anil dalam kedua melintasi ruang solusi dengan menguji mutasi dari solusi individu.  Particle swarm optimization (PSO) lain yang sangat sukses intelijen Swarm metode  Koloni semut metode clustering (ACCM) Salah satu metode yang efisien menggunakan pendekatan clustering. Deneubourg dan rekan-rekannya mempelajari perilaku kolektif dari semut [12]. 1997. 1996.   1983. Dorigo dan menerbitkan Gambardella Ant Colony [7]. Hoos dan menciptakan Stützle MAX-MIN Ant System [6].

M. Proceedings of the SCS Multiconference on Distributed Simulation. N. and Cybernetics--Part B .  1999. F.  1998.M. 13. numéro 2. 2000. Schoonderwoerd. aplikasi pertama untuk kendaraan routing. Actes de AAAI Spring Symposium on Parallel Models of Intelligence. Bianchi dan rekan-rekannya menyarankan algoritma pertama untuk stokastik masalah  2004. Baesens. 7. The self-organizing exploratory pattern of the Argentine ant. 17. M. Moyson. Dorigo. Stanford. Model-based search for combinatorial optimization: A critical survey. et D.-L. mengusulkan Stützle awal implementasi paralel [20]. M. 1991 G. Jefferson. Annals of Operations Research. Pasteels. volume 3. B. numéro 6. 11. Insectes Sociaux. aplikasi pertama dalam merancang jadwal.. Positive feedback as a search strategy. F. 1996. volume 76. p. V.-M. 41-80. volume 31. Colorni. D. C. G. Bonabeau dan koleganya telah menerbitkan sebuah buku berurusan terutama buatan semut [21]  1999. Terence C. MAX MIN Ant System. Ant Colony System : A Cooperative Learning Approach to the Traveling Salesman Problem. actes de la première conférence européenne sur la vie artificielle. Dorigo et V. Maniezzo et A. 2004. S. edisi khusus jurnal tentang algoritma ACO [22] 2000. pages 53-66. volume 16. Meuleau. Ant-based load balancing in telecommunication networks. Birattari. Naturwissenschaften. Colorni. Haesen. T. pages 651—665. M. 9. numéro 1. Referensi 1. yang lintas-entropi dan algoritma untuk memperkirakan distribusi [8]  2005. Ant system: optimization by a colony of cooperating agents .C. et M. Distributed Optimization by Ant Colonies. multi-dimensi masalah ransel. Dorigo et L. France. M. An Ant Foraging Model Implemented on the Time Warp Operating System.-M. pages 25-39. Ebling. Grassé. 1997 . 10. Evolutionary Computing Springer-Verlag. penjadwalan urutan dan kepuasan kendala. A. Journal of Insect Behavior. Parmee. Dip. 16. penggunaan pertama COA Algoritma oleh perusahaan (Eurobios dan AntOptima). La reconstruction du nid et les coordinations inter-individuelles chez Belicositermes natalensis et Cubitermes sp. Probabilistic Behaviour in Ants : a Strategy of Errors?.-P. 134-142. Dorigo. Verhaeghe. Optimization. Goss. J. S. Californie. Gutjahr memberikan bukti pertama konvergensi untuk algoritma koloni semut [23] 2001. S.M. Dorigo. R. 5. 1989 J. Ajith. La théorie de la Stigmergie : Essai d’interprétation du comportement des termites constructeurs . Hoos. pages 169-207. B. 2000 M. vol. Adaptive Behaviour. volume 11. 4. 373-395. J. Ireda dan rekan-rekannya menerbitkan multi-objektif pertama algoritma [24] 2002. 299 pages. 14. Aron. M. Bilchev et I. Italie. 2001. Elsevier Publishing. pp. Manderick. 3. avril 1995. rapport technique numéro 91-016. Snoeck. Rothkrantz. De Backer. Aron. J. 1997. Zlochin. aplikasi pertama untuk lipat protein. Martens. Journal of Theoretical Biology. 2006. 12. R. J. 1989 Dorigo M.-L. Wieland. 2000. V. Classification with Ant Colony Optimization. Holland. IEEE Transactions on Evolutionary Computation. The collective behaviour of Ants : an Example of Self-Organization in Massive Parallelism. Maniezzo. Di Loreto. PhD thesis. Dorigo meluncurkan konferensi pertama yang didedikasikan untuk algoritma ACO 1998. Studies in Computational Intelligence . Learning and Natural Algorithms. volume 1. Future Generation Computer Systems. Politecnico di Milano. Presley. Deneubourg. Zlochin dan Dorigo menunjukkan bahwa beberapa algoritma yang setara dengan gradien stokastik keturunan. Stützle et H. R. M. pages 29-41.L. page 159. M. The Ant Colony Metaphor for Searching Continuous Design Spaces. 131. numéro 105. Bayesian jaringan. pages 579-581. numéro 1. Man. et A. 1983. Vitorino (éditeurs). IEEE Transactions on Evolutionary Computation. The self-organized exploratory pattern of the Argentine ant. Colorni. Pasteels. 2007. IEEE Transactions on Systems.        [25]. Politecnico di Milano. S. Denebourg. Elettronica. Stigmergic Optimization. ISBN 978-3-540-34689-0 P. Maniezzo. volume 5. 1990 M.H. 8. 1992. 1988. O. Italy. Pasteels et J. 15. Proceedings of the AISB Workshop on Evolutionary Computation. Goss et J. J. 6. Vanthienen. 1991. Fogarty (éditeurs). 2002. maka kuadrat penugasan. Deneubourg et J. 2. number 5. Gambardella. pages 889-914. Bruten et L. Paris. Crina. A. 1997. aplikasi pertama ke penjadwalan. 1959. Martinoli dan rekan-rekannya menggunakan Algoritma ACO untuk mengendalikan robot [18]  [19]. volume 26. M.

Proceedings of PPSN-V. Mondada. Future Generation Computer Systems. UK.Dorigo. volume 16. M. ANTS’ 98. ANTS 98. Springer Verlag. et F. A graph-based Ant System and its convergence. http://en.06 Label: algoritma . 2000. volume 1498. L.wikipedia. 24. Parallelization Strategies for Ant Colony Optimization. Gutjahr. Zurich. special issue on "Ant Algorithms". Bianchi. Bonabeau. Oxford University Press. Allemagne. Dorigo . 23. Iredi. Future Generation Computer Systems. Middendorf. 19.18.org/wiki/Ant_colony_optimization Diposkan oleh mSid di 21.J. octobre 1998. Bruxelles. From Ant Colonies to Artificial Ants : First International Workshop on Ant Colony Optimization. Belgique. Brighton. M. 25. 22. Di Caro et T. Bi-Criterion Optimization with Multi Colony Ant Algorithms . L. Berlin. É. Martinoli. D. Theraulaz. M. Fourth European Conference on Artificial Life ECAL-97. On the modelling of bioinspired collective experiments with real robots. Dorigo et G. S. A. 2000 W. juillet 1997. 1998. 21. PPSN-VII. Evolutionary Multi-Criterion Optimization. volume 16.M. T. 1999. numéro 8. 26. pages 359 -372. An ant colony optimization approach to the probabilistic traveling salesman problem. Lecture Notes in Computer Science. M. Stützle. pages 722-731. 2002. Yamamoto. pages 873-888. Springer-Verlag. Seventh International Conference on Parallel Problem Solving from Nature. Gambardella et M. 2001. G. Dorigo. Merkle et M. Springer Verlag. Stützle. Fifth International Conference on Parallel Problem Solving from Nature. First International Conference (EMO’01). 20. Swarm intelligence.