Professional Documents
Culture Documents
المحاضرة 4 شبكات عصبية
المحاضرة 4 شبكات عصبية
Neural Networks
أستاذ المقرر
د /جمال محمد بحيري
المحاضرة الرابعـــــة
1
b
X1
w1
Y
Xi wi
wn
Xn
الخوارزميـــــــة
هذه الخوارزمية ليست حساسة لقيم ابتدائية للألوزان أو •
لقيمة معدل التعلم .αو ها هي الخطوات-:
تهيئة األوزان و االنحياز (إجعلها صفرية) ،ضع .1
معدل التعلم بقيمة (( )α ≤ 1 < 0اجعلها 1
للتبسيط).
طالما أن شرط التوقف لم يتحقق نفذ الخطوات .2
من .7-3
من أجل كل زوج تدريب ( )s : tنفذ الخطوات .3
من .6-4
ضع فعاليات وحدات الدخل بالشكل .4
)xi = si , (i = 1, 2, …, n
تابع الخوارزميـــــــة
.5احسب استجابة وحدة الخرج بالعالقة:
y _ in b x i .w i
i
1 if y _ in
y 0 if y _ in
1 if y _ in
تابع الخوارزميـــــــة
.6حسن األوزان و االنحياز في حالة حدوث خطأ
ما لهذه العينة كما يلي:
إذا كان ( y≠tالخرج المحسوب ≠ الخرج المرغوب)a
)(desired output ≠actual output
w i new w i old t.x i عندئذ:
b i new b i old t
Else
w i new w i old
b i new b i old
تابع الخوارزميـــــــة
.7اختبر شرط التوقف .إذا لم تتغير األوزان التي
تم تهيئتها في الخطوة 3توقف و إال أعد
الخطوات aمن .7→3
الحظ البد من وجود خط فصل.
-لدينا خط يفصل منطقة االستجابة الموجبة عن منطقة
االستجابة الصفرية يسمى بالخط التي تحددة المتباينة:
w1.x1 + w2.x2 + b > θ
الخط الذي يفصل مجال االستجابة السالبة عن مجال االستجابة
الصفرية يعرف بالمتباينة:
w1.x1 + w2.x2 + b <-θ
تطبيق
التوابع المنطقية
مثال :شبكة الـ Perceptronمن أجل التابع ANDبدخل ثنائي و
خرج ثنائي لقطبية
بفرض ( )α=1و االنحياز = صفر و w=0
الدخل األول
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
0 0 0
1 1 1 0 0 1 1 1 1 1 1 1
من الجدول السابق نستنتج أن خطوط الفصل
معطاة بالعالقة:
x1 + x2 +1 = 0.2, and
x1 + x2 +1 = - 0.2
الدخل الثاني
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
1 1 1
1 0 1 2 1 -1 -1 0 -1 0 1 0
من الجدول السابق نستنتج أن خطوط الفصل
معطاة بالعالقة:
x2 = 0.2, and x2 = - 0.2
ألن w1, bتساوي صفر
الدخل الثالث
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
0 1 0
0 1 1 1 1 -1 0 -1 -1 0 0 -1
الدخل الرابع
0 1 -3
1 1 1 -2 -1 1 1 1 1 1 2 -2
1 0 1 -1 -1 -1 0 0 0 1 2 -2
0 1 1 0 0 -1 0 -1 -1 1 1 -3
0 0 1 -3 -1 -1 0 0 0 1 1 -3
التكرار السادس
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
1 1 -3
1 1 1 -1 -1 1 1 1 1 2 2 -2
1 0 1 0 0 -1 -1 0 -1 1 2 -3
0 1 1 -1 -1 -1 0 0 0 1 2 -3
0 0 1 -3 -1 -1 0 0 0 1 2 -3
التكـرار السابع
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
1 2 -3
1 1 1 0 0 1 1 1 1 2 3 -2
1 0 1 0 0 -1 -1 0 -1 1 3 -3
0 1 1 0 0 -1 0 -1 -1 1 2 -4
0 0 1 -4 -1 -1 0 0 0 1 2 -4
التكـرار الثامـــــــن
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
1 2 -4
1 1 1 -1 -1 1 1 1 1 2 3 -3
1 0 1 -1 -1 -1 0 0 0 2 3 -3
0 1 1 0 0 -1 0 -1 -1 2 2 -4
0 0 1 -4 -1 -1 0 0 0 2 2 -4
التكرار التاســــع
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
2 2 -4
1 1 1 0 0 1 1 1 1 3 3 -3
1 0 1 0 0 -1 -1 0 -1 2 3 -4
0 1 1 -1 -1 -1 0 0 0 2 3 -4
0 0 1 -4 -1 -1 0 0 0 2 3 -4
أخيراً التكرار العاشر
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
2 3 -4
1 1 1 1 1 1 0 0 0 2 3 -4
1 0 1 -2 -1 -1 0 0 0 2 3 -4
0 1 1 -1 -1 -1 0 0 0 2 3 -4
0 0 1 -4 -1 -1 0 0 0 2 3 -4
• مما سبق نجد أن االستجـابة الموجبة
تعطى بكل النقاط التي تحقق العالقة -:
2. x1 + 3.x2 -4 > 0.2
• و بالنسبة لخط الفصل يعطى بالعالقة-:
X2 = -(2/3)x1 + 7/5
أما االستجـابة السالبة للشبكة فتمثل
بالنقاط التي تحقق العالقة-:
2. x1 + 3.x2 -4 < - 0.2
انظر الشكل التالي:
حدود القرار النهائية للتابع ( )ANDفي تعلم
Perceptron
X2
+
-
0 0 0
1 1 1 0 0 1 1 1 1 1 1 1
1 -1 1 1 1 -1 -1 1 -1 0 2 0
-1 1 1 2 1 -1 1 -1 -1 1 1 -1
-1 -1 1 -3 -1 -1 0 0 0 1 1 -1
التكرار الثاني و األخير
Input Net Out Tar Weight Weight
get change
X1 X2 1 w1 w2 b
0 0 0
1 1 1 1 1 1 0 0 0 1 1 -1
1 -1 1 -1 -1 -1 0 0 0 1 1 -1
-1 1 1 -1 -1 -1 0 0 0 1 1 -1
-1 -1 1 -3 -1 -1 0 0 0 1 1 -1
شبكة Perceptronمن التابع ANDبمداخل
و مخارج ثنائية القطبية
• بما أن تغير األوزان يساوي الصفر
فإن عملية التدريب تكون قد
انتهت عند هذه المرحلة.
• من هذه النتائج نالحظ أن التمثيل
ثنائي القطبية إلشارات الدخل قد
حسن قدرة التعلم للشبطة
بشكل ملحوظ.
تمت بحمد هللا تعالى و
فضله