You are on page 1of 9

განვიხილოთ თავის ტვინის ძირითადი სტრუქტურული და ფუნქციური ერთეულის –

ნეირონის სტრუქტურა.

მიუხედავად იმისა, რომ ნეირონები სხვადასხვა ფორმისაა, თითოეული მათგანი გადასცემს


ელექტრონულ სიგნალს ნეორონის ერთი ბოლოდან მეორეს, დენდრიტებიდან აქსონების
გავლით ტერმინალამდე. შემდეგ ეს სიგნალები გადაეცემა ერთი ნეირონიდან მეორე,
სწორედ ასეთი მექანიზმი არის მიზეზი იმისა, რომ ჩენ შეგვიძლია აღვიქვათ : სინათლე, ხმა,
შეხება,სითბო. სიგნალები რეცეპტორული ნერვული სისტემებიდა, ნერვული სისტემის
საშუალებით გადაეცემა ტვინს, რომელიც თავის მხრივ ძირითადად ნეირონებისგან შედგება.

ქვევით მოცემულია თუთიყუშის ტვინის ნეირონების განლაგება.


თუთიყუშის ტვინს აქვს შესაძლებლობა იფრინოს, საკვები მოიპოვოს და ა. შ შეასრულოს
გარკვეული მოქმედებები, რაც ნებისმიერი დიდი სიმძლავრის მქონე კომპიუტერისთვის
შეუძლებელია. ამიტომაც შეიქმნა ხელოვნური ნეირონული ქსელები.

როგორ მუშაობს ნეირონები? ის იღებს შემოსულ ელექტრონულ სიგნალს და გამოიმუშავებს


სხვა ელექტრონულ სიგნალს . ეს ჰგავს კლასიფიკატორის მუშაობას, რომელიც იღებს
გარკვეულ საწყის მონაცემებს, ამუშავებს მას და შემდეგ გამოაქვს მიღებული მონაცემები.

დაისმის კითხვა, თუ რამდენად შეგვიძლია

ნეირონების წარმოდგენა წრფივი ფუნქციის სახით და მსგავსა წინა ლექციებზე განხილული


მეთოდებისა. რა თქმა უნდა არა, ნეირონების მიერ გამომუშავებული ფუნქცია არ არის
წრფივი,

ნეირონები შემავალ მონაცემებზე სწრაფად არ რეაგირებენ, შემავალ სიგნალს მანამდე


აყოვნებენ, სანამ ის არ გაიზრდება იმ მნიშვნელობამდე, რომელიც მოახდენ
გამომავალისიგნალის გენერირებას მოახდენს. ეს შეიძლება წარმოვიდგინოთ, რაღაც
ზღვრული მნიშვნელობის სახით, რომლის გადაჭარბების შემთხვევაში მოხდება გამომავალი
სიგნალის გენერირება. , ფუნქცია, რომელიც იღებს შემავალ მნიშვნელობებს და ზღვრული
მნიშვნელობების გათვალისწინებით ახდენს გამომავალი სიგნალების გენერირებას
აქტივაციის ფუნქცია ეწოდება, მათემატიკური თვალსაზრისით ძალიან ბევრი ფუნქცია
არსებობს, რომელიც ჩვენს მოთხოვნებს დააკმაყოფილებს. მაგალითისთვის განვიხილოთ
საფეხურებრივი ფუნქცია.

ნათლად ჩანს, რომ სუსტი შემავალი მონაცემებისთვის, გამომავალი მნიშვნელობები ნულის


ტოლია, მაგრამ შემავალი მონაცემების გაზრდისას წარმოიქმნება გამომავალი სიგნალი. ამ
თვისების მქონე ხელოვნური ინტელექტი უკვე მიმსგავსებულია ბუნებრივ ნეირონებთან,
მაგრამ მის უფრო სრულყოფიმებისთვის ეს ფუნქცია უნდა შევცვალოთ სიგმოიდური
ფუნქციით.
სიგმოიდური ფუნქცია არის მათემატიკური ფუნქცია , რომელსაც აქვს დამახასიათებელი "S"
ფორმის მრუდი ან სიგმოიდური მრუდი .

სიგმოიდური ფუნქციის ჩვეულებრივი მაგალითია ლოგისტიკური ფუნქცია:

1
y= −x
1+e
არის სხვა სტანდარტული სიგმოიდური ფუნქციები ზოგიერთ სფეროში,
განსაკუთრებით ხელოვნური ნეირონული ქსელების კონტექსტში , ტერმინი
"სიგმოიდური ფუნქცია" გამოიყენება ლოგისტიკური ფუნქციის მეტსახელად.
(e=2.71828. x - არის შემავალი მონაცემი, ხოლო y - გამომავალი.)

პირველი, რაც უნდა გვარკვიოთ, არის ის, რომ ბიოლოგიურ ნეირონებს აქვთ
მრავალი შესასვლელი. ჩვენ უკვე მსგავსი მაგალითი განვიხილეთ, როცა
ვიხილავდით ლოგიკურ ფუნქციას. მრავალი შესასვლელის დროს უნდა მოხდეს
შემავალი მონაცემების შეკრება, მიღებული ჯამი იქნება სიგმოიდისთვის შემავალი
მნიშვნელობა, რომელიც მართავს გამომავალ მნიშვნელობას.

თუ კომბინირებული სიგნალი არ არის საკმარისად ძლიერი, მაშინ სიგმოიდი


თრგუნავს გამომავალ სიგნალს. თუ x საკმარისად დიდია, მაშინ ხდება ნეირონის
აღგზნება. გამომავალი მნიშვნელობის ამოსაფრქვევად ერთი ძლიერი სიგნალიც
შეიძლება იყოს საკმარისი. იმ შემთხვევაში, როდესაც თითოეული სემომავალი
სიგნალი არის სუსტი, მათი კო შეიძლება მოხდეს ზღვრული გადაჭარბება და
გამომავალი მნიშვნელობების ამოფრქვევა.

ელექტრონული სიგნალები მიიღება დენდრიტების საშუალებით, ხხდება მათი


კომბინირება, ფორმირდება უფრო ძლიერი სიგნალი, თუ ეს სიგნალი აჭარბებს
ზღვარს, ეს იწვევს ნეირონის აღგზნებას და სიგნალი აქსონის გავლით გადაეცემა
ტერმინალს, საიდანაც ის გადადის სხვა ნეირონის დენდრიტში. ამ გზით
დაკავშირებული ნეირონები სქემატურად არის გამოსახული ქვემოთ მოცემულ
ილუსტრაციაში.

რუქტურის შექმ

ბუნებრივი ნეირონული სისტემის მუშაობის ხელოვნური მოდელის შექმნის მეთოდს


წარმოადგენს მრავალშრიანი ნეირონული სტრუქტურის შექმნა., სადაც ყოველი
ნეირონი დაკავშირებული ყოველ ნეირონთან წინა ან შემდეგი შრიდან.სტრუქტურა
მოცემულია შემდეგ ნახაზზე.
ეს ილუსტრაცია გვიჩვენებს სამ ფენას, რომელთაგან თითოეული

მოიცავს სამ ხელოვნურ ნეირონს, ანუ კვანძს. როგორც ხედავთ, აქ თითოეული კვანძი
დაკავშირებულია წინა და მომდევნო ფენების თითოეულ კვანძთან.

ახლა ისმის კითხვა. რომელ ნაწილში ხდება მისი წვრთნა და რომელი პარამეტრით
ხდება რეგულირება? არის თუ არა, ისეთი პარამეტრი როგორიც იყო ჩვენი წრფე
კლასიფიკატორისთვის დახრის კუთხე. ყველაზე მარტივი დასარეგულირებელი
სიდიდე არის კვანძებს შორის დამაკავშირებელი წონა. ქვემოთ მოცემულია
ილუსტრაცია:
w ij -წონის პირველი ინდექსი
მიუთითებს, გამომავალი კვანძის ნომერ, ხოლო მეორე j ინდექსი შესასვლელი
კვანძის ნომერს.

ალბათ, გაგიჩნდებათ კითხვა, რატომ არის თითოეული კვანძი მომდევნო ან ეინა


კვანძთან დაკავშირებული? რატომ არ შეიძლება კვანძების გამოტოვება. უბრალოდ
ასეთი სახით პროგრამული კოდის დაწერა არის უფრო ადვილი, ხოლო მათი
დასწავლა უნდა მოხდეს ისე ,რომ კავშირების შესუსტებით მოხდეს კვანძების
გამოტოვება .

რა იგულისხმება ამაში? ეს ნიშნავს, რომ ერთხელ ქსელი

ისწავლის მისი გამომავალი მნიშვნელობების გაუმჯობესებას ქსელის შიგნით


კავშირების წონების დახვეწით, ზოგიერთი წონა ნულამდე ანმიუახლოვდება ნულს.
თავის მხრივ, ეს ნიშნავს, რომ ასეთი ბმულები არ იმოქმედებს ქსელზე, რადგან
მათგან სიგნალები აღარ გადაეცემა. სიგნალის ნულოვან წონაზე გამრავლება იწვევს
ნულს, რაც ნიშნავს რეალურ გათიშვას.

ნეირონების მუშაობის ილუსტრაციისთვის 3 შრიანი ნეირონის განხილვა უფრო


რთული იქნება, ამიტომაც განვიხილოთ ორშრიანი ნეირონული ქსელი. დავუშვათ,
რომ შემავალი სიგნალები შეესაბამება მნიშვნელობებს 1.0 და 0.5.
თითოეულ კვანძში ორი შემავალი სიგნალი გარდაიქმნება ერთ გამომავალ სიგნალად
1
სიგმოიდური ფუნქციის გამოყენებით. y= −x;
1+e
სადაც х — ნეირონებში შემავალი სიგნალების ჯამი, ხოლო у — გამომავალი.

წონითი სიდიდეები შევარჩიოთ შემთხვევითად.

• w 11 =0. 9
 w 12 =0.2
 w 2 1=0.3
 w 22=0.9
პირველი კვანძი შესასვლელთან არანაირი გამოთვლები არ სრულდება,
შემავალი მონაცემები არიან საწყისი მნიშვნელობები. მეორე შრის პირველი
კვანძისთვის მოხდება შემდეგი გამოთვლები

X=(პირველი გამომავალი მნიშვნელობა*პირველი კავშირის წონაზე)+ (მეორე


გამომავალი მნიშვნელობა*მეორე კავშირის წონაზე);
х = ( 1 , 0 * 0 , 9 ) + ( 0 , 5 * 0 , 3 );

х = 0, 9 + 0 , 1 5

х = 1, 05

1
ახლა უნდა გამ ოვიყენოთ აქტივაციის ფუნქცია y= −x;
1+e
у = 1 / (1 + 0 , 3 4 9 9 ) = 1 / 1,3499. მივიღეთ у=0,7408. შესაბამისა უნდა მოვიქცეთ მეორე
კვანძვიპოვოთ მეორე კვანძიდან გამომავალი ფუნქცია.

You might also like