Professional Documents
Culture Documents
ﻣﯽﮐﻨﻨﺪ.
ﻣﻘﺪﻣﻪ
در ﺳﺎل ۱۹۴۳وارن ﻣﮏ ﮐﻼچ و واﻟﺘﺮ ﭘﯿﺘﺰ اوﻟﯿﻦ
ﻧﻮرون ﻣﺼﻨﻮﻋﯽ را ﻃﺮاﺣﯽ ﮐﺮدﻧﺪ .ﺧﺼﻮﺻﯿﺖ اﺻﻠﯽ
ﻣﺪل ﻧﻮرون ﻃﺮاﺣﯽ ﺷﺪه اﯾﻦ ﺑﻮد ﮐﻪ ﻣﺠﻤﻮع
ﺳﯿﮕﻨﺎلﻫﺎی ورودی وزن دار ﺷﺪه را ﺑﺎ ﯾﮏ ﻣﻘﺪار
آﺳﺘﺎﻧﻪ ﻣﻘﺎﯾﺴﻪ ﻣﯽﮐﺮد و ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ در ﻣﻮرد
ﺧﺮوﺟﯽ ﺗﺼﻤﯿﻢﮔﯿﺮی ﻣﯽﻧﻤﻮد .اﯾﻦ ﻧﻮرون در ﺻﻮرﺗﯽ
ﮐﻪ ﻣﺠﻤﻮع وزندار ﺷﺪه ﺳﯿﮕﻨﺎلﻫﺎ ،ﮐﻤﺘﺮ از آﺳﺘﺎﻧﻪ
ﺑﻮد ،ﺧﺮوﺟﯽ ﺻﻔﺮ و در ﻏﯿﺮ اﯾﻨﺼﻮرت ﻣﻘﺪار ۱را ﺑﻪ
ﻋﻨﻮان ﺧﺮوﺟﯽ ﺗﻮﻟﯿﺪ ﻣﯽﮐﺮد .آنﻫﺎ ﻗﺼﺪ داﺷﺘﻨﺪ،
ﻧﺸﺎن دﻫﻨﺪ ،ﯾﮏ ﻧﻮرون ﺑﺎ ﭼﻨﯿﻦ ﺧﺼﻮﺻﯿﺎﺗﯽ ﻗﺎدر ﺑﻪ
ﻣﺤﺎﺳﺒﻪ ﻫﺮ ﺗﺎﺑﻊ رﯾﺎﺿﯽ ﯾﺎ ﻣﻨﻄﻘﯽ ﻣﯽﺑﺎﺷﺪ .در اواﺧﺮ
دﻫﻪ ۱۹۵۰ﻣﯿﻼدی ،ﻓﺮاﻧﮏ روزﻧﺒﻼت و ﭼﻨﺪﯾﻦ ﻣﺤﻘﻖ
دﯾﮕﺮ ،ﯾﮏ ﮐﻼس از ﺷﺒﮑﻪﻫﺎی ﻋﺼﺒﯽ ﺗﺤﺖ ﻋﻨﻮان
ﺷﺒﮑﻪﻫﺎی ﻋﺼﺒﯽ ﭘﺮﺳﭙﺘﺮون ﻣﻌﺮﻓﯽ ﮐﺮدﻧﺪ .ﻧﻮرونﻫﺎ
در اﯾﻦ ﺷﺒﮑﻪ ﻣﺸﺎﺑﻪ ﻧﻮرونﻫﺎی ﻃﺮاﺣﯽ ﺷﺪه ﺗﻮﺳﻂ
ﻣﮏ ﮐﻼچ و ﭘﯿﺘﺰ ﺑﻮدﻧﺪ .روزﻧﺒﻼت ﺛﺎﺑﺖ ﮐﺮد ﮐﻪ ﻗﺎﻋﺪه
ﯾﺎدﮔﯿﺮی ﻃﺮاﺣﯽ ﺷﺪه ﺗﻮﺳﻂ او در آﻣﻮزش ﺷﺒﮑﻪﻫﺎی
ﭘﺮﺳﭙﺘﺮون ﻫﻤﻮاره ﺑﻪ وزنﻫﺎی ﺻﺤﯿﺤﯽ ﻫﻤﮕﺮا
ﻣﯽﺷﻮد .ﺑﻪ اﯾﻦ ﺗﺮﺗﯿﺐ اﯾﻦ ﺷﺒﮑﻪﻫﺎ در ﺻﻮرت وﺟﻮد
ً
ﺣﺘﻤﺎ ﻣﺴﺌﻠﻪ را ﺣﻞ ﻣﯽﮐﺮدﻧﺪ .روﻧﺪ ﯾﺎدﮔﯿﺮی ﭘﺎﺳﺦ،
ﺳﺎده و ﺧﻮدﮐﺎر ﺑﻮد ،ﻫﻤﭽﻨﯿﻦ ﺷﺒﮑﻪﻫﺎی ﭘﺮﺳﭙﺘﺮون
ﺣﺘﯽ ﺑﺎ ﺷﺮوع از ﻣﻘﺎدﯾﺮ ﺗﺼﺎدﻓﯽ وزنﻫﺎ و ﺑﺎﯾﺎسﻫﺎ
ﻗﺎدر ﺑﻪ ﯾﺎدﮔﯿﺮی و ﺣﻞ ﻣﺴﺌﻠﻪ ﻣﯽﺑﺎﺷﻨﺪ .ﺷﺎﯾﺎن ﺗﻮﺟﻪ
اﺳﺖ ﮐﻪ ﺷﺒﮑﻪﻫﺎی ﭘﺮﺳﭙﺘﺮون دارای ﻣﺤﺪودﯾﺖﻫﺎﯾﯽ
ﻧﯿﺰ ﻣﯽﺑﺎﺷﻨﺪ .اﻣﺮوزه ﺷﺒﮑﻪﻫﺎی ﭘﺮﺳﭙﺘﺮون دارای
اﻫﻤﯿﺖ وﯾﮋهای ﺑﻮده و ﯾﮏ راهﺣﻞ ﺳﺮﯾﻊ و ﻣﻄﻤﺌﻦ
ﺑﺮای ﺣﻞ ﻣﺴﺎﺋﻞ ﻃﺒﻘﻪﺑﻨﺪی ﺷﺪه ﻣﯽﺑﺎﺷﻨﺪ.
ﻗﻮاﻋﺪ ﯾﺎدﮔﯿﺮی
در ﻣﺒﺎﺣﺚ ﻣﺮﺑﻮط ﺑﻪ ﺷﺒﮑﻪﻫﺎی ﻋﺼﺒﯽ ،ﻗﻮاﻋﺪ
ﯾﺎدﮔﯿﺮی ،روﯾﻪای ﺑﺮای اﺻﻼح وزنﻫﺎ و ﺑﺎﯾﺎسﻫﺎ
ﺗﻌﺮﯾﻒ ﻣﯽﮐﻨﯿﻢ .ﻗﺎﻋﺪه ﯾﺎدﮔﯿﺮی در راﺳﺘﺎی آﻣﻮزش
ﺷﺒﮑﻪ ﺑﺮای اﻧﺠﺎم ﮐﺎر ﺧﺎﺻﯽ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار
ﻣﯽﮔﯿﺮد .ﻗﻮاﻋﺪ ﯾﺎدﮔﯿﺮی ﺑﻪ ﺳﻪ ﺑﺨﺶ ﻋﻤﺪه
ﺗﻘﺴﯿﻢﺑﻨﺪی ﻣﯽﺷﻮﻧﺪ:ﻗﺎﻋﺪه ﯾﺎدﮔﯿﺮی ﺑﺎ ﻧﻈﺎرت ،ﻗﺎﻋﺪه
ﯾﺎدﮔﯿﺮی ﺑﯽ ﻧﻈﺎرت و ﻗﺎﻋﺪه ﯾﺎدﮔﯿﺮی ﺗﻘﻮﯾﺘﯽ .در
اﯾﻨﺠﺎ ﺗﻮﺿﯿﺢ ﻣﺨﺘﺼﺮی در ﻣﻮرد ﻧﺤﻮه ﻋﻤﻠﮑﺮد اﯾﻦ
ﻗﻮاﻋﺪ ﻣﯽدﻫﯿﻢ .در "'ﻗﺎﻋﺪه ﯾﺎدﮔﯿﺮی ﺑﺎ ﻧﻈﺎرت"' از
ﻣﺠﻤﻮﻋﻪای از ﻧﻤﻮﻧﻪﻫﺎی آﻣﻮزﺷﯽ اﺳﺘﻔﺎده ﻣﯽﮐﻨﯿﻢ
ﮐﻪ ﺷﺒﮑﻪ را آﻣﻮزش ﻣﯽدﻫﻨﺪ .زوجﻫﺎی ﻣﺮﺗﺐ زﯾﺮ را
در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ:
. دﻗﯿﻘﺘﺮ
ﭘﺮﺳﭙﺘﺮون ﺗﮏ ﻻﯾﻪ
ﯾﮏ ﻧﻮرون ﭘﺮﺳﭙﺘﺮون ﮐﻪ از ﺗﺎﺑﻊ اﻧﺘﻘﺎل hard-limitاﺳﺘﻔﺎده
ﻣﯽﮐﻨﺪ.
ﺟﺴﺘﺎرﻫﺎی واﺑﺴﺘﻪ
ﺗﺎﺑﻊ ﺳﯿﮕﻤﻮﺋﯿﺪ )(Sigmoid Function
ﺷﺒﮑﻪ ﻋﺼﺒﯽ )(Biological Neural Network
Artificial Neural) ﺷﺒﮑﻪ ﻋﺼﺒﯽ ﻣﺼﻨﻮﻋﯽ
(Network
(Deep Learning) ﯾﺎدﮔﯿﺮی ﻋﻤﯿﻖ
(Reinforcement learning) ﯾﺎدﮔﯿﺮی ﺗﻘﻮﯾﺘﯽ
(Supervised learning) ﯾﺎدﮔﯿﺮی ﺑﺎﻧﻈﺎرت
(Unsupervised learning) ﯾﺎدﮔﯿﺮی ﺑﯽﻧﻈﺎرت
ﻣﻨﺎﺑﻊ
۱. Ian Goodfellow and Yoshua Bengio
and Aaron Courville (۲۰۱۶). Deep
learning. MIT Press. ﺻﺺ. ۲۰۰.
۲. Heaton, Jeff (2017-10-29). "Ian
Goodfellow, Yoshua Bengio, and
Aaron Courville: Deep learning".
Genetic Programming and Evolvable
Machines. 19 (1–2): 305–307.
doi: 10.1007/s10710-017-9314-z.
ISSN 1389-2576.
۳. «Build with AI | DeepAI». DeepAI.
.2018 اﻛﺘﺒﺮ17 ﺑﺎﯾﮕﺎﻧﯽﺷﺪه از اﺻﻠﯽ در
ﺗﺎرﯾﺦ وارد.2018-10-24 درﯾﺎﻓﺖﺷﺪه در
| ﺷﺪه درarchivedate= را ﺑﺮرﺳﯽ ﮐﻨﯿﺪ
))ﮐﻤﮏ
۴. A., Nielsen, Michael (2015). "Neural
Networks and Deep Learning".
Archived from the original on 22 اﻛﺘﺒﺮ
2018. Retrieved 13 2019 دﺳﺎﻣﺒﺮ.
Check date values in: |archive-
date= (help)
۵. Russell, Stuart; results, search (2009-
12-11). Artificial Intelligence: A
Modern Approach ( ﺑﻪEnglish) (3 ed.).
Boston Columbus Indianapolis New
York San Francisco Upper Saddle
River Amsterdam, Cape Town Dubai
London Madrid Milan Munich Paris
Montreal Toronto Delhi Mexico City
Sao Paulo Sydney Hong Kong Seoul
Singapore Taipei Tokyo: Pearson.
p. 578. ISBN 9780136042594.
۶. Kasabov, N. K (1998). Foundations of
Neural Networks, Fuzzy Systems,
and Knowledge Engineering. MIT
Press. ISBN 0-262-11212-4.
۷. T.Hagan, Martin; B.Demuth, Howard;
Beale, Mark (1996). Neural
Networks Design. PWS Publishing
Co. Boston. ISBN 0-534-94332-2.
۸. L.Minsky, Marvin; Papert, Seymour
(1988). Perceptrons: An Introduction
to Computational Geometry. The MIT
Press. ISBN 0-262-63111-3.
۹. Auer, Peter; Harald Burgsteiner;
Wolfgang Maass (2008). "A learning
rule for very simple universal
approximators consisting of a single
layer of perceptrons" (PDF). Neural
Networks.
doi: 10.1016/j.neunet.2007.12.036.
Archived from the original (PDF) on
6 July 2011. Retrieved 27 April 2017.
ﭘﯿﻮﻧﺪ ﺑﻪ ﺑﯿﺮون
اﻟﮕﻮرﯾﺘﻤﯽ ﺗﺮﮐﯿﺒﯽ ﺑﺮای آﻣﻮزش ﺷﺒﮑﻪﻫﺎی ﻋﺼﺒﯽ
ﻣﺼﻨﻮﻋﯽ
اﻧﺠﻤﻦ آﻣﺮﯾﮑﺎﯾﯽ ﻫﻮش ﻣﺼﻨﻮﻋﯽ
ﻫﻮش ﻣﺼﻨﻮﻋﯽ MIT -
ﮐﺘﺎﺑﺨﺎﻧﻪ ﻫﻮش ﻣﺼﻨﻮﻋﯽ
ﺑﺮﮔﺮﻓﺘﻪ از »?https://fa.wikipedia.org/w/index.php
&oldid=29545064ﺷﺒﮑﻪ_ﻋﺼﺒﯽ_ﭘﯿﺸﺨﻮر=«title