Professional Documents
Culture Documents
182
Desired out put = Actual out put -1التعليم الموجه
االقتراب من الحل الصحيح بأقل خطأ ممكن ي ففتم التعل ففيم بسدخ ففال زو مك ففون م ففن (اإلدخ ففال والخف ف ار المطل ففوب) وتع ففدل
يتم تحديد عدد الدورات مسبقاً األوزان باالعتم ففاد عل ففى الف ففرق ب ففين اإلخف ف ار المطل ففوب واإلخف ف ار الحقيق ففي،
3-1-2أطوار الشبكة: ويسففتمر التعلففيم إلففى أن يصففبح الفففرق بففين القيمتففين مقارب فاً للصفففر ،واشففهر
لشبكة االنتشار الخلفي التراجعي طورين هما]:[27][28][29 شبكات هذا النوع من التعليم شبكة االنتشار التراجعي].[9
-2طفور التعلم :أي تفدريب الشفبكة علفى الفنمط المعطفى وفيفه تغذيفة أماميفة -2التعليم غير الموجه
وخلفية. ال نحتا هنا لوجود اإلخ ار المطلوب ونكتفي بتسفليط اإلدخفال حيفث تحفدث
:Feedانس ففياب البيان ففات م ففن خالي ففا التغذي ففة األمامي ففة Forward عملي ففة تنظ ففيم ذات ففي باالعتم ففاد عل ففى خوارزمي ففة تعل ففيم معين ففة ب ففدون اإلخف ف ار
اإلدخال باتجاه خاليا اإلخ ار . المطلففوب ،واشففهر شففبكتين مففن هففذا النففوع همففا شففبكة كففوهين )(Kohonen
انسففياب الخطففأ خلففاً :Back Propagationرجففوع الخطففأ )(Error وشبكة كروسبيرك ).[10] (Grossberg
من طبقة اإلخ ار باتجاه اإلدخال للحصول على األوزان المثالية. -3التعليم القسري
-1ط ففور التففذكر :أي اختبففار الشففبكة هففل دربففت علففى الففنمط المعطففى أم ال هفي طريقففة تعلفيم تشففبه التعلففيم الموجفه ،ولكففن ال يوجففد إخف ار مطلففوب محففدد
أي هففل حصففلنا علففى الففوزن المثففالي أم ال وفيففه فقففط تغذيففة أماميفة (Feed
بففل بوجففد مؤشففر يحففدد صففحة أو خطففا اإلخ ف ار حيففث تعففدل األوزان اعتمففاداً
).Forward على ذلك وتزداد األوزان في حالة كون إجابة المؤشر صائبة وبعكسفه سفتقلل
4-1-2معماريييييية شيييييبكة االنتشيييييار الخلفيييييي التراجعيييييي المسيييييتخدمة فيييييي األوزان].[11
التشفير: 1-2شبكة االنتشار الخلفي التراجعيي Back Propagation Neural
تتكون شفبكة االنتشفار الخلففي التراجعفي التفي تفم اسفتخدامها ففي التشففير مفن :Net work
ثالث طبقات كما مبين في الشكل رقم ) (2وهي: 1-1-2المقدمة
-2طبقة اإلدخال ) (Input layerتتضمن أربع عقد وتكون بعدد المففاتيح ) (Werbosأول مف ففن تطف ففرق لفك ف فرة شف ففبكة االنتشف ففار كف ففان العف ففالم ويربف ففا
المستخدمة ).(k1, k2, k3, k4 التراجع ف ففي ث ف ففم رومله ف ففارت ) (Roomelhartوهين ف ففتن ) (Hintonوولي ف ففام
-1الطبقففة الخفيففة ) (Hidden layerوتتضففمن سففتة عشففر عقففدة وهففي ) (Williamsحيففث تففم نشففر هففذه الفك فرة] .[12][13وتسففتخدم هففذه الشففبكة
تمثل عدد الحاالت أي 2Nحيث أن Nتمثل عدد المفاتيح. فففي الكثيففر مففن التطبيقففات وذلففك ألنهففا تمتلففك عموميففة فففي التعامففل مففع كافففة
-3طبقففة اإلخ ف ار ) (Output layerوتتضففمن سففبعة عقففد (وذلففك الن أنواع المسائل وأنهفا واسفعة االنتشفار وسفهلة التعامفل مفع الكثيفر مفن المسفائل
اكبر رقم من مجموع أرقام المفاتيح يساوي 100وهو يأخفذ 7 bitعنفد باس ففلوب واض ففح وبس ففيط ويض ففاف إل ففى ذل ففك اس ففتخدامها ف ففي تميي ففز األنم ففاط
تمثيلة بالنظام الثنائي). وك ففذلك تس ففتعمل م ففع الكثي ففر م ففن المس ففائل المعق ففدة الت ففي ال يمك ففن اس ففتخدام
الشبكات األخرى معها حيث أنها تسفتخدم ففي التشخيصفات المرضفية ][14
Out . . . ].[15] [16
1 2 2-1-2مميزات الشبكة:
-2تعت ففبر الشففبكة ذات تعلففيم موج ففه) (Supervised Learningأي أن ففها
تحتفوي على اإلدخال واإلخ ار المطلوب ].[9
-1الفوزن لهفا يكفون عبفارة عفن مصففوفة ذات قفيم صفغيرة عشفوائية (Small
. . . . . . . . ).[17] real number
Hidd 1 2 3
-3ال فربط فيهففا يتكففون مففن مففرحلتين :المرحلففة األولففى مرحلففة Forwardأي
انسففياب المففدخالت باتجففاه المخرجففات ،والمرحلففة الثانيففة هففي مرحلففة Back
propagateأي انس ف ف ف ف ففياب أو رج ف ف ف ف ففوع الخط ف ف ف ف ففأ م ف ف ف ف ففن اإلخف ف ف ف ف ف ار باتج ف ف ف ف ففاه
Inp . اإلدخال].[18][19
1 2
-4البيانات الداخلة تكون أما ثنائية أو مستمرة].[20][ 21
معمارية الشبكة4المستخدمة في التشفير
الشكل رقم )4 (2
-5تتكون الشبكة من عدة طبقات ).[22][23][24] (Multi layers
5-1-2معماريييية شيييبكة االنتشيييار الخلفيييي التراجعيييي المسيييتخدمة فيييي فييي
-6تكففون دالففة التحفيففز لهففا هففي السففغمويد ) (Sigmoid functionوهففذه
الشفرة:
الدالة تمتاز بعد خصائص حيث تكون يفر خطيفة خوادخاالتهفا تكفون مسفتمرة
تتكففون شففبكة االنتشففار الخلفففي التراجعففي التففي تففم اسففتخدامها فففي فففك الشفففرة
والمشتقة لها بسيطة].[25
من ثالث طبقات كما مبين في الشكل رقم ) (3وهي:
-1يغير الوزن لتقليل نسبة الخطأ التي ينتج من الشبكة].[26
-2طبقة اإلدخال ) (Input layerوتتضمن سبعة عقد.
-8شرط توقف الشبكة هو الحصول على اإلخ ار المطلوب أي]:[17
181
-2اختيار المفاتيح بشكل مناسب مع مراعاة الشروط التالية: -1الطبقة الخفية ) (Hidden layerوتتضمن ستة عشر عقدة.
اختيار قيم المفاتيح بشكل عشوائي على شرط ≠ (k1 ≠ k2 ≠ k3 -3طبقة اإلخ ار ) (Output layerوتتضمن أربعة عقد.
)k4 ≠ 0وتفم ففي هفذا البحفث اختيفار القفيم التاليفة للمففاتيح (k1=2, Outpu .
).k2=14, k3=55, k4=29 aye 1 2. 4
مجمففوع أي قففيم مففن المفففاتيح (التففي قففيم الف ف bitفيهففا يسففاوي واحففد) ال
يساوي مجموع أي من قيم المجاميع األخرى كما مبين في الجفدول رقفم
) (2أي(0 ≠ 29 ≠ 55 ≠ --------- ≠ 100) :
-1التعامففل مففع رسففالة اإلدخففال بشففكل دقيففق حيففث تففم م ارعففاة أن الرسففالة
ممكفن أن تحتفوي علففى الحفروف الكبيفرة والصففغيرة األرقفام والرمفوز كمففا
. . . . . . . .
Hidde
1 2 3 . . . . . . . . 16
مبين في الجدول رقم ).(1
-3عند إجراء عملية التشفير يكفون اإلدخفال ) (Inputإلفى الشفبكة متكفون
مفن ) (4 bitأمففا اإلخف ار ) (Desire outputمتكففون مفن )(7 bit
كما مبين في الجدول رقم ).(2 Inpu
-4عن ففد إجف فراء عملي ففة ف ففك الشف ففرة يك ففون اإلدخ ففال ) (Inputإل ففى الش ففبكة t
1 2
متكون من ) (7 bitأمفا اإلخف ار ) (Desire outputمتكفون مفن (4
الشكل رقم ) (3معمارية الشبكة7المستخدمة في ف الشفرة
) bitكما مبين في الجدول رقم ).(3
6-1-2النقاط المالحظة عند تصميم الخوارزميتين المقترحتين:
تم اقتراح خوارزميتين األولفى للتشففير واألخفرى لكسفر الشففرة باسفتخدام شفبكة
االنتشار الخلفي التراجعي وعند التصميم تم مالحظة النقاط التالية:
الجدول رقم ) (1يوضح األحرف واألرقام والرموز وتسلسالتها التي ممكن أن تكون موجودة في أي نص مطلوب تشفيره
الرمز ت الرمز ت الرمز ت الرمز ت الرمز ت الرمز ت
p 81 ` 65 P 49 . 33 < 17 1
q 82 a 66 Q 50 A 34 = 18 ! 2
r 83 b 67 R 51 B 35 > 19 " 3
s 84 c 68 S 52 C 36 ; 20 # 4
t 85 d 69 T 53 D 37 : 21 $ 5
u 86 e 70 U 54 E 38 0 22 % 6
v 87 f 71 V 55 F 39 1 23 & 7
w 88 g 72 W 56 G 40 2 24 ' 8
x 89 h 73 X 57 H 41 3 25 ( 9
y 90 i 74 Y 58 I 42 4 26 ) 10
z 91 j 75 Z 59 J 43 5 27 * 11
DEL 92 k 76 [ 60 K 44 6 28 + 12
~ 93 l 77 \ 61 L 45 7 29 ، 13
{ 94 m 78 ] 62 M 46 8 30 - 14
| 95 n 79 ^ 63 N 47 9 31 @ 15
} 96 o 80 _ 64 O 48 / 32 ? 16
183
الجدول رقم ) (2يوضح اإلدخال واإلخراج ومجموع قيم المفاتيح التي قيمة الي) (bit=1لشبكة االنتشار الخلفي التراجعي المستخدمة في التشفير
الجدول رقم ) (3يوضح اإلدخال واإلخراج لشبكة االنتشار الخلفي التراجعي المستخدمة في ف التشفير
184
7-1-2مخطط تدريب الشبكة:
تم استخدام المخطط الموضح في الشكل رقم ) (4في تدريب الشبكة وهو:
بداية تدريب
نعم
نهاية التدريب
-25الحصول على النص المشفر والمتمثل بمصفوفة أحادية 3خوارزمية التشفير المقترحة:
والمخط ف ففط االنس ف ففيابي لعملي ف ففة التش ف فففير باس ف ففتخدام ش ف ففبكة االنتش ف ففار الخلف ف ففي تم اقتراح الخوارزمية التالية لعملية التشفير باستخدام شبكة االنتشار
التراجعي موضح في الشكل رقم )(5 الخلفي التراجعي وهي:
-4خوارزمية ف الشفرة: -2إدخال النص الصريح
تم اقتراح الخوارزمية التالية لعملية ف الشفرة باستخدام شبكة االنتشار -1إيجاد حجم النص الصريح ووضعه في المتغير N
الخلفي التراجعي وهي: F=1 -3
-4اخففذ حففرف مففن الففنص خوايجففاد تسلسففله حسففب الجففدول رقففم ) (1واخففذ
-1إدخال النص المشفر
التسلسل وجمعه مع 100
-2إيجاد حجم النص المشفر ووضعه في المتغير N
-5تحويل الناتج إلى النظام الثنائي
-3ندرب الشبكة حسب الشكل رقم ) (4على الجدول رقم )(3
F=F+1 -6
F=1 -4
-1إذا كان ) (F<=Nالرجوع إلى الخطوة رقم 4
-5اخففذ ) (7 bitمففن الففنص المشفففر ونختبففر الشففبكة ونحصففل علففى اإلخ ف ار
-8الحصول على مصففوفة ثنائيفة عفدد الصففوف فيهفا بعفدد أحفرف الفنص
ويتكون من )(4 bit
F=F+7 -6 الصريح وعدد األعمدة فيها8
-7إذا كان ( )F<=Nيتم الرجوع إلى الخطوة رقم 5 -2ندرب الشبكة حسب الشكل رقم ) (3على الجدول رقم )(2
-20تحوي ففل المص فففوفة الثنائي ففة إل ففى مص فففوفة أحادي ففة اس ففمها X1خوايج ففاد -8وضففع النففاتج فففي مصفففوفة أحاديففة اسففمها Y1خوايجففاد حجمهففا ووضففعه فففي
المتغير N1 حجمها ووضعه في المتغير N1
F=1 -9 F=1 -22
-20اخ ففذ ) (8 bitم ففن Y1ونحوله ففا م ففن النظ ففام الثن ففائي إل ففى النظ ففام -21اخ ففذ ) (4 bitم ففن المص فففوفة X1ونختب ففر الش ففبكة ونحص ففل عل ففى
العشري اإلخ ار ويتكون من )(7 bit
-22طرح 100من الناتج F=F+4 -23
-24إذا كان ) (F<=N1الرجوع إلى الخطوة رقم 21
185
-24إذا كان ( )F<=N1يتم الرجوع إلى الخطوة رقم 20 -21باالس ففتعانة بالجف ففدول رق ففم ) (1يف ففتم إيجف ففاد (الح ففرف ،ال ف فرقم ،الرمف ففز)
والمخطففط االنسففيابي لعمليففة فففك الشفففرة باسففتخدام الشففبكة موضففح فففي الشففكل المستخدم ويتم وضعه في مصفوفة أحادية وهذا يمثل النص الصريح
رقم ).(6 F=F+8 -23
186
181
أي شخص أخر ال يملك هذا المفتاح السري أن يتوصفل إلفى الفنص الواضفح - 5االستنتاجات:
حتى خوان كفان يعفرف تفاصفيل طريقفة التشففير .أمفا تعريفف كسفر الشففرة فهفو التشفففير فففي أبسففط تعريففف لففه هففو تحويففل نففص واضففح (مكتففوب أو منطففوق)
عملية استخدام النص المشفر للتوصل إلى النص الواضفح ،وذلفك مفن محلفل إلى نص ير مفهوم باستخدام طريقة محددة تعتمد على مفتاح سري خفاص
الشفرة. بالمت ارس ففلين ،بحي ففث يس ففتطيع م ففن يمل ففك ه ففذا المفت ففاح (ويع ففرف الطريق ففة) أن
يعيففد الففنص المشفففر إلففى أصففله الواضففح (يسففتخر الشفففرة) ،بينمففا ال يسففتطيع
188
) رمز، رقم،حيث أن النص الصريح ممكن أن يحتوي على أي (حرف وما الشبكات العصبية إالّ محاولة لفهم أعمق وأوضح لعمل وسلوك الشبكة
كما تم اختيار المفاتيح بصورة عشوائية مع،وممكن أن يكون بأي حجم ومن هنا كان البد من إقامة عالقة وثيقة بين الشبكات،العصبية الحيوية
أما االخوارزمية الثانية استخدمت لفك.مراعاة بعض الشروط الواجب توفرها العصبية الحيوية والشبكات العصبية االصطناعية من حيث البنية والتفصيل
الشفرة حيث يتم إدخال النص المشفر وباالعتماد على الشبكة يتم فك الشفرة ّ وما كان ذلك إال. ُليصار إلى دفع تقنيات الذكاء االصطناعي إلى األمام
.والحصول على النص الصريح كما ذكرت سابقاً ( بمحاكاة الشبكة العصبية الحيوية بالشبكة العصبية
وقد أظهرت الخوارزميتين اداء عالي في التشفير وفي فك الشفرة عند .)االصطناعية
تنفيذها على عدد من النصوص حيث كانت نتائج االختبار جيدة وتم وفي هذا البحث تم استخدام الشبكات العصبية في التشفير إذ تم استخدام
.الحصول على اداء أفضل من استخدام طرق التشفير االعتيادية شبكة االنتشار الخلفي التراجعي لتنفيذ العمل نظ اًر لما تتميز به هذه الشبكة
األولى استخدمت للتشفير:من مميزات عديدة حيث تم اقتراح خوارزميتين
:المصادر- 6
science and IT education joint conference, 1. Shihab, Khalil, A back propagation neural
(2005):P 1-7. network for computer network security,
14. Ismail, Saliza, Recurrent neural network with Journal of computer science ISSN, (2006): P
back propagation through time algorithm for 710-715.
Arabic recognition, Proceedings 18th 2. Elsevier, Network and information security: a
European Simulation Multi conference. computational intelligence approach, Journal
(2004) of network and computer applications, (2007):
15. Betker, A. L. Szturm and Z. Moussavi, P 1-3.
Application of feed forward back propagation 3. Yang, Jiyun Xiaofeng Liao, Cryptanalysis of
neural network to center of mass estimation cryptographic scheme based on delayed
for use in a clinical environment, IEEE, chaotic neural networks, ELSEVIER, (2007):
(2003): P 2714-2717. P 1-5.
16. Durai, S. Anna and E. Anna Saro, Image 4. Antonie, Maria Luiza Osmar R. and
compression with back propagation neural Alexandru Loman, Application of data mining
network using cumulative distribution techniques for medical image classification,
function, ISSN, (2006): P 1-5. ACM SIGKDD Conference, , (2001): P 94-
17. Chang, Ray-I, Liang-Bia, Intrusion detection 101.
by back propagation neural networks with 5. Babovic, Vladan M. , Seabed recognition
sample-query and attribute-query, using neural networks, Technical Report,
International Journal of computational Danish Hydraulic Institute, (1999): P 1-74.
Intelligence Research ISSN., Vol. 3, No. 1, 6. Chang, Ping and Jeng Shong Shih, The
(2007):P 6-10. application of back propagation neural
18. Henning, Kai Thorsten dc, Multi sensor network of multi-channel piezoelectric quartz
system for fast analysis in environmental crystal sensor for mixed organic vapours,
monitoring with an application in waste water Tamkang Journal of science and engineering,
treatment, EARsel- SIG, No. 1, (2000):P 61- Vol. 5, No. 4, (2002): P 209-217.
67. 7. Mundhenk, T. Nathan and Michael A. Arbib,
19. Khan Asif Ullah T. K. Bandopadhyaya, Back-propagation neural network homework,
Genetic algorithm based back propagation CSCI, (2006): P 1-7.
neural network performs better than back 8. Vesely, A., Neural networks in data mining,
propagation neural network in stock rates AGRIC. ECON.-CZECH, (2003): P 427-431.
prediction, IJCSNS, International Journal of 9. Tsaregorodtsev, Victor G., Parallel
computer science and network security, Vol. implementation of back-propagation neural
8, No. 7, (2008): P 1-5. network software on smp computers, LNCS,
20. Jantzen, Jan, Introduction to perceptron (2005):P 186-192.
networks, DENMARK Tech report No., 10. Jain, Anil K., Statistical pattern recognition: a
(1998):P 1-32. review, IEEE, Vol. 22, No. 1, (2000): P 1-34.
21. Kusumaputre, Benyamin and Teguh P. 11. Park, Hoasung, Fuzzy relation- based fuzz
Arsyad, Recognizing order mixtures using neural- networks using a hybrid identification
optimized fuzzy neural network through algorithm, International Journal of control,
genetic algorithm, Journal of advanced Vol. 1, No. 3, (2003): P 1-12.
computational Intelligence and Intelligent 12. Kamruzzaman, Joarder Rezaul K. Ruhu,
Informatics, Vol. 9, No. 3, (2005): P 290-291. Artificial neural networks in finance and
22. Valdes, Julia J., Behavior of similarity- based manufacturing, IDEA, , (2003):P 1-31.
neuro- fuzzy networks and evolutionary 13. Otair, Mohammed A. Walid A., Speeding up
algorithms in time series model mining, NRC- back propagation neural networks:, Informing
CNRC, (2002): P 1-6.
182
23. Nikravesh, Masoud F. Aminzadeh, Past,
present and future intelligent reservoir
characterization trends, Journal of petroleum
science and engineering 31. , (2001): P 67-79.
24. Kasabov, Nikola Senior Member, Evolving
fuzzy neural networks for supervised/
unsupervised, IEEE, Vol. 3, No. 6, (2001):P
1-67.
25. Moghadas, R. Kamyab and S. Gholizadeh, A
new wavelet back propagation neural
networks for structural dynamic analysis,
Engineering letters, (2008): P 1-6.
26. Sajda, Paul, Learning contextual relationships
in mammograms using a hierarchical pyramid
neural network, IEEE, Vol. 21, No. 3. (2002).
27. Mitrassushmita,Senior Member, Data mining
in soft computing framework a survey, IEEE,
Vol. 13, No. 1. (2002).
28. Sharhui, Liu Yao Hongeun, Neural network
based steganalysis in still image, IEEE,
(2003): P 1-4.
29. Lakshmi, Seetha Shooyu Zhou, Selectivity
estimation in extensible data bases - a neural
network approach, 24th ULDB conference
new york, (1998): P 1-5.
120
Using the Neural Networks in Encryption
S. H. Karruffa
Basic Sciences, College Of Dentistry, Mosul University, Iraq
(Received , Accepted )
Abstract
The main purpose of encryption is keeping the plain text (or the key or both) secretly far from the
enemies on the assumption of being have the whole ability to reach the communications between the
sender and the receiver. Encryption generally is data transportation from one side to another by keeping
the data not to be change or amended or watching, There are many ways for encryption that are used
for converting the original message to a cipher one. While the artificial neural networks are data
processing system that has performance characteristics in a way that resembles the vital neural
networks. In another form, we found that artificial neural networks is either a resemblance for the
method that the human mind performs a certain mission, which is a huge processor that is distributed in
parallel way and consisted of simple processing units where it stores the practical knowledge to make it
available for user by means of weights seizing.
In this research, the neural network was used in encryption The back propagation neural network was
used for performing the action, it has many characteristics can be easily treated with problems in a
simple and clear way and the possibility of the network to solve the complex problems and using it in
pattern recognition. is work includes two stage: The first stages, an algorithm was suggested for
encryption process where plain text can be entered and getting the cipher text by using the neural
network. While the second stage , an algorithm was suggested for the process of decryption were the
cipher text can be entered and to produce the plain text by using network. The program was developed
in Matlab language version 6.5 for performing the action.
122
121