You are on page 1of 176

‫خوارزميات الذكاء االصطناعي‬

‫فــــــــي تحليــــل النــــص العـــربي‬

‫مباحث لغوية ‪٦١‬‬

‫تحرير‪:‬‬

‫د‪ .‬عبدالله بن يحيى الفيفي‬

‫تأليف‪:‬‬
‫د‪ .‬عبــــــدالله بــن صالـــــــــــح الراجــــــــح‬ ‫د‪ .‬وليـــــد بن عبـــــدالله الصانـــــــــــــــع‬

‫د‪ .‬عبدالرحمن بن محمد العصيمي‬ ‫د‪ .‬فـــــارس بن صــــــــالــــح القنيـعـــــير‬

‫د‪ .‬أيمن بن أحمـد الغامـــــــدي‬

‫‪-1-‬‬
‫مباحث لغوية ‪٦١‬‬

‫خوارزميات الذكاء االصطناعي‬


‫في تحليل النص العربي‬

‫تأليف‪:‬‬

‫د‪ .‬عبداهلل بن صالـــــح الراجح‬ ‫د‪ .‬وليد بن عبداهلل الصانـــــــع‬


‫د‪ .‬عبدالرمحن بن حممد العصيمي‬ ‫د‪ .‬فارس بن صـــــالح القنيعري‬
‫د‪ .‬أيمن بن أمحـد الغامـــــــدي‬

‫حترير‪:‬‬
‫د‪ .‬عبداهلل بن حييى الفيفي‬

‫‪١٤٤١‬هـ ‪٢٠١٩ -‬م‬


‫خوارزميات الذكاء االصطناعي‬
‫في تحليل النص العربي‬
‫الطبعة األوىل‬
‫‪ 144١‬هـ ‪ ٢٠١٩ -‬م‬
‫مجيع احلقوق حمفوظة‬
‫اململكة العربية السعودية ‪ -‬الرياض‬
‫ص‪.‬ب ‪ 12500‬الرياض ‪11473‬‬
‫هاتف‪00966112581082 - 00966112587268:‬‬
‫الربيد اإلليكرتوين‪nashr@kaica.org.sa :‬‬

‫مركز امللك عبداهلل بن عبدالعزيز الدويل خلدمة اللغة‬


‫العربية‪1٤٤١ ،‬هـ‪.‬‬
‫فهرسة مكتبة امللك فهد الوطنية أثناء النرش‬
‫التصميم واإلخراج‬ ‫الفيفي‪ ،‬عبداهلل بن حييى‬
‫خوارزميات الذكاء االصطناعي يف حتليل النص العريب‪/.‬‬
‫عبداهلل بن حييى الفيفي‪ -.‬الرياض‪1٤٤٠ ،‬هـ‬
‫‪..‬ص؛ ‪ ..‬سم‬
‫ردمك‪978- 603- 8221- ٦٠- ٠ :‬‬
‫‪ - 1‬اللغة العربية ‪ -‬معاجلة البيانات أ‪ .‬العنوان‬
‫ديوي ‪١٤٤٠/١١٣٣٥ ٤١,٢٨٥‬‬
‫رقم اإليداع‪١٤٤٠/١١٣٣٥ :‬‬
‫ردمك‪978- 603- 8221- ٦٠- ٠ :‬‬

‫اليسمح بإعادة إصدار هذا الكتاب‪ ،‬أو نقله يف أي شكل أو وسيلة‪،‬‬


‫سواء أكان إلكرتونية أم يدوية أم ميكانيكية‪ ،‬بام يف ذلك مجيع أنواع تصوير املستندات بالنسخ‪ ،‬أو‬
‫التسجيل أو التخزين‪ ،‬أو أنظمة االسرتجاع‪ ،‬دون إذن خطي من املركز بذلك‪.‬‬
‫هذا املشروع‬

‫مرشوع تأليف سلسلة كتب يف جمال (حوسبة العربية) هيدف إىل بناء تراك ٍم معريف‬
‫يف جمال حيوي مهم‪ ،‬هو جمال (حوسبة العربية) ‪ .‬ويعد هذا الكتاب واحدا من سلسلة‬
‫كتب صدرت يف املركز‪.‬‬
‫يقع هذا املرشوع ضمن سلسلة (مباحث لغوية) التي يرشف املركز عىل اختيار‬
‫عنواناهتا‪ ،‬وتكليف املحررين واملؤلفني‪ ،‬ومتابعة التأليف حتى إصدار الكتب‪ .‬وهي‬
‫سلسلة جيتهد املركز أن تكون سداد ًا حلاجات بحثية وعلمية حتتاج إىل تنبيه الباحثني‬
‫عليها‪ ،‬أو تكثيف البحث فيها‪.‬‬
‫ويعدّ هذا الكتاب واحد ًا من كتب ثالثة مرتابطة يف مرشوع علمي واحد متخصص‬
‫يف (الذكاء االصطناعي) ‪:‬‬
‫‪1.1‬العربية والذكاء االصطناعي‪.‬‬
‫‪2.2‬تطبيقات الذكاء االصطناعي يف خدمة اللغة العربية‪.‬‬
‫‪3.3‬خوارزميات الذكاء االصطناعي يف حتليل النص العريب‪.‬‬

‫مدير مرشوع (العربية والذكاء االصطناعي)‬


‫د‪.‬عبداهلل بن حييى الفيفي‬

‫‪-5-‬‬
-6-
‫كلمة املركز‬

‫يعمل املركز يف جمال البحث العلمي ونرش الكتب مستهدف ًا الرتكيز عىل املجاالت‬
‫البحثية التي ما زالت بحاجة إىل تسليط الضوء عليها‪ ،‬وتكثيف البحث فيها‪ ،‬ولفت أنظار‬
‫الباحثني واجلهات األكاديمية إىل أمهية استثامرها بمختلف وجوه االستثامر‪ ،‬وذلك مثل‬
‫جمال (التخطيط اللغوي) و (العربية يف العامل) و(األدلة واملعلومات) و (تعليم العربية‬
‫ألبنائها أو لغري الناطقني هبا) إىل غري ذلك من املجاالت‪ ،‬وإن من أهم جماالت البحث‬
‫املستقبلية يف اللغة العربية جمال (العربية واحلوسبة ‪ ،‬والذكاء االصطناعي) حيث إن‬
‫اللغات احلية مرهونة حياهتا مستقبال بمدى جتاوهبا مع التطورات التقنية والعامل‬
‫االفرتايض‪ ،‬وكثافة املحتوى االلكرتوين املكتوب‪ ،‬وهو ما يشكّل حتديا حقيقيا أمام‬
‫اللغات غري املنتجة للمعرفة أو للتقنية‪.‬‬
‫وقد عمل املركز عىل تسليط الضوء عىل هذا املجال التخصيص؛ مستعينا بالكفاءات‬
‫القادرة من املهتمني بالتخصص البيني (بني اللغة واحلاسوب) مقدّ را جهودهم‪ ،‬وهادف ًا‬
‫إىل نرشها‪ ،‬وتعميم مبادئها‪ ،‬راغب ًا أن يكون هذا املسار العلمي مقررا يف اجلامعات يف‬
‫كلية العربية واحلاسوب‪ ،‬وجماال بحثيا يقصده الباحثون األكديميون‪ ،‬واجلهات البحثية‬
‫العربية‪.‬‬

‫‪-7-‬‬
‫وقد أصدر املركز سابقا ستة عرش كتاب ًا خمتصا يف (حوسبة العربية) ويف اإلفادة من‬
‫(املدونات اللغوية) يف األبحاث العربية‪ ،‬وحيتفل بإصدار سبعة كتب جديدة خمتصة يف‬
‫(حوسبة العربية والذكاء االصطناعي) ‪ ،‬ويقدمها للقارئ العريب‪ ،‬وللجهات األكاديمية؛‬
‫لإلفادة منها واعتامد ما تراه منها مناسب ًا لتعليمه والبناء عليه‪ ،‬وهذه الكتب السبعة هي‪:‬‬
‫(تطبيقات الذكاء االصطناعي يف املعاجلة اآللية‪ ،‬تطبيقات الذكاء االصطناعي يف‬
‫خدمة اللغة العربية‪ ،‬خوارزميات الذكاء االصطناعي يف حتليل النص العريب‪ ،‬مقدمة‬
‫يف حوسبة اللغة العربية‪ ،‬املوارد اللغوية احلاسوبية‪ ،‬املعاجلة اآللية للنصوص العربية‪،‬‬
‫تطبيقات أساسية يف املعاجلة اآللية للغة العربية)‪.‬‬
‫ويشكر املركز السادة مؤلفي الكتب‪ ،‬وحمررهيا‪ ،‬ملا تفضلوا به من عمل علمي‬
‫رصني‪ ،‬وأدعو الباحثني واملؤلفني إىل التواصل مع املركز الستكامل املسرية‪ ،‬وتفتيق‬
‫فضاءات املعرفة‪.‬‬
‫وفق اهلل اجلهود وسدد الرؤى‪.‬‬

‫األمني العام‬
‫أ‪ .‬د‪ .‬حممود إسامعيل صالح‬

‫‪-8-‬‬
‫(((‬
‫مقدمة احملرر‬

‫احلمد هلل رب العاملني‪ ،‬والصالة والسالم عىل أرشف املرسلني‪ ،‬نبينا حممد وعىل آله‬
‫وصحابته أمجعني‪ ،‬وبعد‪:‬‬
‫فأود أوالً أن أعرب عن وافر امتناين ملركز امللك عبداهلل بن عبدالعزيز الدويل خلدمة‬
‫اللغة العربية عىل اهتاممه بإصدار سلسلة حول الذكاء االصطناعي واللغة العربية‪ ،‬إذ‬
‫رشفني بإدارة مرشوع هذه السلسلة وحترير أحد إصداراهتا‪ .‬وإنه ألمر يبعث عىل الغبطة‬
‫والرسور أن نرى إصدارات عربية يف مثل هذه املوضوعات التخصصية البينية التي‬
‫تندر مراجعها يف مكتبتنا العربية‪ ،‬خصوص ًا تلك املراجع التي يتسم حمتواها بالرشح‬
‫املبسط لغري املتخصص مع ما تقدمه من ثراء وغنى يف املعلومة‪ ،‬وهو السهل املمتنع‬

‫‪ -1‬عبداهلل بن حييى الفيفي‪ :‬أستاذ اللغويات احلاسوبية املساعد يف جامعة اإلمام حممد بن سعود اإلسالمية يف الرياض‪.‬‬
‫درس البكالوريوس يف اللغة العربية يف جامعة امللك خالد يف أهبا‪ ،‬واملاجستري يف تعليم اللغة بمساعدة احلاسب يف قسم‬
‫اللغويات يف جامعة ‪ ،Essex‬والدكتوراه يف اللغويات احلاسوبية يف قسم احلاسب اآليل يف جامعة ‪ ،Leeds‬وكالمها‬
‫يف بريطانيا‪ .‬له العديد من األبحاث املنشورة حول تقنيات معاجلة اللغة العربية آلي ًا‪ ،‬واملدونات اللغوية وبراجمها‬
‫احلاسوبية‪ ،‬وكذلك مدونات املتعلمني‪ ،‬وصناعة املعاجم احلاسوبية ملتعلمي اللغة العربية‪ ،‬إضافة إىل مشاركته يف‬
‫تأليف بعض الكتب املتخصصة يف اللسانيات احلاسوبية‪ ،‬واملدونات اللغوية وتطبيقاهتا‪ .‬عمل حمك ًام لدى عدد من‬
‫الدوريات العلمية واملؤمترات الدولية‪ .‬أنشأ املدونة اللغوية ملتعلمي اللغة العربية ‪ ،Arabic Learner Corpus‬شارك‬
‫يف العديد من املشاريع العلمية والبحثية الوطنية يف جمال ختصصه‪.‬‬

‫‪-9-‬‬
‫الذي نحتاجه يف مثل هذه املؤلفات التي تثري مكتبتنا العربية بال شك وتقدم املعرفة‬
‫احلديثة يف قالب يؤمل منه جذب أكرب عدد ممكن من املهتمني هلذه املجاالت التخصصية‬
‫اخلصبة‪ ،‬التي باتت ميدان ًا للدراسة والبحث النظري إضافة إىل التجارب والتطبيقات‬
‫العملية التي تتنافس عليها كربيات الرشكات التقنية‪ ،‬وكذلك اجلامعات واملراكز‬
‫البحثية‪.‬‬
‫وحتسب ملركز امللك عبداهلل بن عبدالعزيز الدويل خلدمة اللغة العربية مبادرته يف تبني‬
‫مثل هذا املرشوع وغريه من مرشوعات السالسل التي تعالج موضوعات متخصصة‪،‬‬
‫وتفتح آفاق ًا للقارئ العريب للحاق بركب العلم واملعرفة واالطالع عىل آخر مستجداته‪.‬‬
‫وقد حرص املشاركون يف تأليف هذا الكتاب ‪ -‬وهم نخبة من أساتذة اجلامعات‬
‫املتخصصني يف ميدان الذكاء االصطناعي ومعاجلة اللغة العربية (مع حفظ األلقاب‬
‫العلمية هلم) ‪ -‬عىل أن يكون الطرح تعليمي ًا متدرج ًا مع رشح املصطلحات قدر‬
‫اإلمكان‪ ،‬وتقريب املعلومات للقارئ بأمثلة واضحة تساعد عىل الفهم والتطبيق‪،‬‬
‫إال أنه موجه بالدرجة األوىل ملن لديه مقدمة يسرية عن تطبيقات الذكاء االصطناعي‬
‫‪ Artificial Intelligence‬ومعاجلة اللغة الطبيعية ‪،Natural Language Processing‬‬
‫وبناء اخلوارزميات ‪Algorithm‬؛ وذلك لتعميق معرفته حول خوارزميات الذكاء‬
‫االصطناعي التي يمكن االستفادة منها يف جمال حتليل النص العريب ومعاجلة اللغة‬
‫العربية التي ختتلف يف تركيبتها الرصفية والنحوية والداللية عن اللغات الالتينية التي‬
‫حظيت باهتامم كبري يف هذا اجلانب‪ ،‬فهو ‪-‬أي النص العريب‪ -‬بحاجة إىل مزيد من‬
‫البحث والدراسة لتكييف اخلوارزميات املستعملة بام يتناسب مع خصائصه وقواعده‪،‬‬
‫وهذا ما حياول الكتاب رشحه باستعراض لعدة موضوعات حظيت بأبحاث عميقة يف‬
‫اآلونة احلديثة‪ .‬وفيام ييل عرض موجز ملحتويات الكتاب اعتامد ًا عىل امللخصات التي‬
‫سرتد الحق ًا يف بداية كل فصل من فصوله‪.‬‬
‫ففي الفصل األول يتحدث وليد الصانع عن طرق ومستويات معاجلة اللغة يف‬
‫الذكاء االصطناعي‪ ،‬مبين ًا أن حوسبة معاجلة اللغة هتدف إىل حماكاة الذكاء البرشي؛‬
‫إذ إن اللغات البرشية تعترب أحد أكثر األنظمة تعقيد ًا‪ ،‬وهي متر بمستويات عدة بدء ًا‬
‫من الصوت وانتها ًء باخلطاب‪ .‬ويلقي هذا الفصل الضوء عىل مستويات معاجلة‬

‫‪-10-‬‬
‫اللغة‪ ،‬مع استعراض بعض من الطرق املشهورة املستخدمة يف معاجلة اللغة يف الذكاء‬
‫االصطناعي‪ ،‬ومنها عىل سبيل املثال خوارزميات تع ُّلم اآللة (‪،)Machine Learning‬‬
‫والتعرف النمطي‬
‫ُّ‬ ‫ونامذج ماركوف اخلفية (‪،)Hidden Markov Models –HMMs‬‬
‫(‪ )Pattern Recognition‬يف الفضاء الداليل‪ ،‬ونحوها مما يعطي القارئ ملحة عن طرق‬
‫الذكاء االصطناعي املستعملة يف معاجلة اللغة‪.‬‬
‫يف الفصل الثاين يتناول فارس القنيعري خوارزميات التعلم العميق وتطبيقاته‬
‫يف معاجلة اللغة‪ ،‬والتي تعد امتداد ًا خلوارزميات الشبكات العصبية‪ .‬ويرجع سبب‬
‫استخدام خوارزميات التع ّلم العميق إىل قدرهتا عىل تع ّلم نامذج بالغة التعقيد كان‬
‫من الصعب تعلمها سابق ًا‪ ،‬وهذا أتاح العديد من التطبيقات التي تعالج احتياجات‬
‫واقعية‪ ،‬منها معاجلة اللغات الطبيعية‪ .‬فيبدأ هذا الفصل بتقديم موجز عن الشبكات‬
‫العصبية والتعلم العميق‪ ،‬ثم يتطرق ألهم املعامريات املستخدمة‪ ،‬ويف النهاية يعرض‬
‫بعض تطبيقاهتا يف معاجلة اللغات الطبيعية؛ للخروج بفهم عام عن خوارزميات التعلم‬
‫العميق وكيفية تطبيقها يف جمال معاجلة اللغات‪.‬‬
‫ويف الفصل الثالث يتحدث عبداهلل الراجح عن الرتمجة اآللية‪ ،‬التي تعد من أصعب‬
‫املشاكل يف جمال الذكاء االصطناعي‪ ،‬إذ تتطلب معارف لغوية متعددة ملحاكاة عمل‬
‫املرتجم املختص‪ ،‬ومع ذلك فهي تشهد تطور ًا ملحوظ ًا يف أداء أنظمتها بعد عقود‬
‫من البحث والتطوير‪ ،‬وخصوص ًا بعد حتوهلا من منهج الرتمجة اآللية اإلحصائية‬
‫(‪ )Statistical Machine Translation‬الذي كان مهيمن ًا عىل هذا امليدان لعدة عقود‪،‬‬
‫إىل أن حتول املجتمع البحثي حديث ًا وتبعته كربيات الرشكات إىل املنهج املعتمد عىل‬
‫الشبكات العصبية (‪ ،)Neural Machine Translation‬ويمكن اعتبارها نقطة التحول‬
‫التي دخلت معها الرتمجة اآللية عرص ًا جديد ًا‪ ،‬إذ يقدم الفصل احلايل عرض ًا ألبرز مالمح‬
‫هذا العرص‪ ،‬مع التطرق لبعض التحديات التي تواجه هذا املنهج البحثي اجلديد‪.‬‬
‫يف الفصل الرابع يتناول عبدالرمحن العصيمي نمذجة الكلمة العربية‪ ،‬إذ متثل الكلمة‬
‫ركيزة مهمة يف فهم واستيعاب اخلطاب املكتوب‪ .‬وهيدف هذا الفصل إىل تزويد غري‬
‫املتخصص بمقدمة لفهم أحدث اخلوارزميات املستخدمة يف بناء النامذج احلاسوبية‬
‫للكلمة العربية الفصيحة املكتوبة‪ .‬كام حياول تفسري أسباب الصعوبات التي تكتنف نمذجة‬

‫‪-11-‬‬
‫ومرورا بغناها الرصيف وانتها ًء‬
‫ً‬ ‫الكلمة العربية حتديدً ا‪ ،‬بد ًءا بنظامها الرصيف الغري خطي‬
‫بمستويات الغموض العالية يف النص العريب‪ .‬كام يقدم نمطني مشهورين لتحليل الكلمة‪:‬‬
‫اللغوي والتوزيعي‪ ،‬ويقارن بينهام‪ ،‬وذلك عرب مقدمة لكل نمط وحتليل اخلوارزميات‬
‫املستخدمة وأشهر األدوات املتاحة‪ .‬ويف اخلتام‪ ،‬يسلط الضوء عىل أوجه القصور يف بعض‬
‫اخلوارزميات عند حتليل ونمذجة اللغة العربية‪ ،‬والوسائل مقرتحة ملعاجلتها‪.‬‬
‫يف الفصل اخلامس يقدم أيمن الغامدي استعراض ًا لتقنيات الذكاء االصطناعي‬
‫واملعاجلة احلاسوبية للمتالزمات اللفظية والرتاكيب االصطالحية‪ ،‬من خالل تتبع أهم‬
‫الدراسات التي اهتمت باملعاجلة احلاسوبية هلذه الظاهرة اللغوية‪ ،‬إذ يبدأ الفصل بمقدمة‬
‫تبني أمهية دراسة هذه الظاهرة وأهم جماالت البحث فيها‪ ،‬ثم يقدم إطار ًا نظري ًا مشتم ً‬
‫ال‬
‫عىل أهم اخلصائص اللغوية املميزة هلا يف اللغة العربية‪ ،‬باإلضافة إىل استعراض أهم‬
‫التصنيفات املستعملة للرتاكيب االصطالحية يف مستويات لغوية متعددة‪ .‬بعد ذلك‬
‫يستعرض أهم تطبيقات املعاجلة احلاسوبية هلذه الظاهرة والتي تلخص املشاكل البحثية‬
‫الرئيسة التي تتضمن الرتاكيب االصطالحية يف أدبيات معاجلة اللغات‪ ،‬كام يسلط‬
‫الضوء بشكل خاص عىل مهمتي االستخراج والتعرف اآليل‪ ،‬قبل أن خيتم بعرض‬
‫موجز ألبرز التحديات التي ال زالت تشكل عقبة يف سبيل الوصول إىل درجات عالية‬
‫من الدقة يف مهام املعاجلة احلاسوبية املختلفة هلذه الظاهرة اللغوية املعقدة‪.‬‬
‫ختام ًا‪ ،‬أتقدم بالشكر الوافر ‪ -‬بعد شكر اهلل عز وجل ‪ -‬إىل مركز امللك عبداهلل‬
‫بن عبدالعزيز الدويل خلدمة اللغة العربية عىل ما قدمه للمحرر ولفريق التأليف‬
‫من دعم متصل وتذليل للعقبات يف سبيل تأليف هذا الكتاب الذي يؤمل أن يكون‬
‫مرجع ًا للمهتمني هبذا امليدان‪ .‬كام أتقدم بالشكر اجلزيل جلميع الزمالء املشاركني يف‬
‫تأليف فصول هذا الكتاب الذين بذلوا أوقاهتم وقدموا خالصة أبحاثهم يف جماالت‬
‫ختصصهم‪ ،‬فلهم مني جزيل الشكر واالمتنان‪.‬‬
‫ ‬
‫املحرر ‪ /‬عبداهلل بن حييى الفيفي‬
‫الرياض‪ 8 -‬ذو القعدة ‪1440‬هـ‬
‫‪ayjfaifi@gmail.com‬‬ ‫ ‬

‫‪-12-‬‬
‫موضوعات فصول الكتاب‬

‫الفصل األول‪ :‬طرق ومستويات معاجلة اللغة يف الذكاء االصطناعي ‬


‫د‪ .‬وليد بن عبداهلل الصانع ‪١٥‬‬ ‫ ‬

‫الفصل الثاين‪ :‬التعلم العميق وتطبيقاته يف معاجلة اللغة‬


‫د‪ .‬فارس بن صالح القنيعري ‪45‬‬

‫الفصل الثالث‪ :‬الرتمجة اآللية ‬


‫د‪ .‬عبداهلل بن صالح الراجح ‪٦٩‬‬

‫ ‬ ‫الفصل الرابع‪ :‬نمذجة الكلمة العربية‬


‫د‪ .‬عبدالرمحن بن حممد العصيمي ‪٩٥‬‬

‫الفصل اخلامس‪ :‬تقنيات الذكاء االصطناعي واملعاجلة احلاسوبية‬


‫للمتالزمات اللفظية والرتاكيب االصطالحية‬
‫د‪ .‬أيمن بن أمحد الغامدي ‪١٢٥‬‬

‫‪-13-‬‬
-14-
‫الفصل األول‬
‫طرق ومستويات معاجلة اللغة‬
‫يف الذكاء االصطناعي‬

‫د‪ .‬وليد بن عبداهلل الصانع‬

‫‪-15-‬‬
-16-
‫ملخص الفصل‬
‫تعترب اللغات البرشية أحد أكثر األنظمة تعقيد ًا والتي متيز اإلنسان عن غريه من‬
‫املخلوقات‪ .‬ومتثل قدرة اإلنسان عىل فهم وتوليد اللغة عام ً‬
‫ال من عوامل متيزه العقالين‪.‬‬
‫وهلذا‪ ،‬فإن حوسبة معاجلة اللغة تعترب أحد أهم تطبيقات الذكاء االصطناعي والذي‬
‫هيدف إىل حماكاة الذكاء البرشي‪ .‬ومتر معاجلة اللغة يف الذكاء االصطناعي بمستويات‬
‫عدة‪ ،‬بدء ًا من الصوت وانتها ًء باخلطاب‪ .‬ويعمل الباحثون عىل تطوير طرق متعددة‬
‫ملعاجلة اللغة يف كل هذه املستويات‪ .‬ويف هذا الفصل‪ ،‬نلقي الضوء عىل مستويات‬
‫معاجلة اللغة‪ ،‬وكذلك نستعرض بعض ًا من الطرق املشهورة املستخدمة يف معاجلة اللغة‬
‫يف الذكاء االصطناعي‪.‬‬

‫د‪ .‬وليد بن عبداهلل الصانع‬


‫أستاذ بحث مساعد يف املركز الوطني لتقنية الذكاء االصطناعي والبيانات الضخمة‬
‫بمدينة امللك عبدالعزيز للعلوم والتقنية‪ .‬حصل عىل درجتي البكالوريوس واملاجستري‬
‫يف علوم احلاسب اآليل من جامعة امللك سعود بالرياض‪ .‬قرأ الدكتوراه يف جمموعة‬
‫الذكاء االصطناعي بجامعة يورك بربيطانيا‪ .‬عمل سابقا مهندس ًا للربجميات يف قسم‬
‫األبحاث والتطوير يف رشكة اإللكرتونيات املتقدمة‪ ،‬ثم مهندس ًا للنظم والربجميات يف‬
‫رشكة االتصاالت السعودية قبل أن ينتقل للعمل باحث ًا يف مدينة امللك عبدالعزيز للعلوم‬
‫والتقنية‪ .‬تتمثل اهتامماته البحثية يف تعلم اآللة‪ ،‬وحتديد ًا يف تعلم الربامج املنطقية‪ ،‬تعلم‬
‫النامذج االحتاملية‪ ،‬وتعلم الربامج املنطقية االحتاملية‪ ،‬وتطبيقات تعلم اآللة يف نمذجة‬
‫ومعاجلة اللغة‪.‬‬

‫‪-17-‬‬
‫‪ -1‬املقدمة‬
‫عم يدور يف عقله من تصورات وأفكار‪.‬‬ ‫عب هبا اإلنسان َّ‬
‫اللغة هي الوسيلة التي ُي ِّ‬
‫تعارف عليه بني جمموعة من البرش يستخدمونه إليصال األفكار‬ ‫وهي نظام ترميزي ُم َ‬
‫والصور التي يف عقوهلم بحيث يستطيع املستقبل((( هلذه الرموز من نفس املجموعة أن‬
‫حيوهلا يف عقله لنفس األفكار والصور التي أراد املتكلم إيصاهلا‪ ،‬أو قري ًبا منها‪ .‬إذ إن‬
‫اللغة البرشية هي متثيل ألفكار ومفاهيم بطريقة مسموعة (الكالم) أو مكتوبة (النص)‪.‬‬
‫وبنا ًء عليه‪ ،‬فإن استخدام اإلنسان للغة مبني عىل ثالث قدرات أساسية وهبها اهلل‬
‫سبحانه وتعاىل له‪ ،‬وهي‪:‬‬
‫Ÿ Ÿقدرته عىل تعلم اللغة (‪ :)Language Acquisition‬أي قدرته عىل استقراء‬
‫(‪ )Induce‬القواعد الرتكيبية والداللية للوحدات والرتاكيب اللغوية‪ ،‬كالقواعد‬
‫الرصفية والنحوية ودالالت املفردات‪ ،‬من خالل األمثلة التي يتعرض هلا سام ًعا‬
‫(يف بدايته كطفل)‪ ،‬أو قراء ًة (بعد تعلمه القراءة) (‪.)Clark, 2002‬‬
‫مثال‪:‬‬
‫طفل إىل الناس من حوله يقولون يف حديثهم عن ُذ ٍ‬
‫كور‪:‬‬ ‫ِ‬
‫يستم ُع ٌ‬
‫أعطيتُـ ه‪ ،‬حدثتُـ ه‪ ،‬سلمتُـ ه‪ ،‬أكرمتُـ ه‪… ،‬‬
‫ويف حديثهم عن ٍ‬
‫إناث‪:‬‬
‫أعطيتُـ ها‪ ،‬حدثتُـ ها‪ ،‬سلمتُـ ها‪ ،‬أكرمتُـ ها‪… ،‬‬
‫ويعلم هذا الطفل أن الكلامت تشري إىل أحداث مرتبطة بالزمن (أفعال) قام‬
‫ذكورا وإنا ًثا‪ .‬فعندئذ‪ ،‬يقوم باستقراء النظرية‬
‫ً‬ ‫هبا املتحدث جتاه أطراف ثالثة‪،‬‬
‫اللغوية التالية‪:‬‬
‫§ §إذا أراد متحدث اإلشارة إىل فعل جتاه طرف ثالث ذكر فإنه يلحق «ه» بالفعل‪،‬‬
‫وإذا أراد اإلشارة إىل فعل جتاه طرف ثالث أنثى فإنه يلحق بالفعل «ها»‪.‬‬

‫‪ -1‬سنستخدم كلمة «ا ُملستقبِل» يف مناسبات خمتلفة خالل هذا الفصل لإلشارة للسامع أو القارئ عندما ال ُيدد السياق‬
‫هل املقصود كالم أم نص‪.‬‬

‫‪-18-‬‬
‫Ÿ Ÿقدرته عىل استقبال اللغة‪ ،‬أو ما يعرف باللغة االستقبالية (‪Receptive‬‬
‫‪ :)Language‬وهي القدرة عىل معاجلة وفهم اللغة وفق القواعد اللغوية التي‬
‫كوهنا عن العامل (خصائص املوجودات‬ ‫وو ْفق املعتقدات (‪ )Beliefs‬التي َّ‬
‫تعلمها َ‬
‫و َعالقاهتا مع بعضها)‪ .‬أي حتويل الرموز والرتاكيب اللغوية إىل املفاهيم العقلية‬
‫املناسبة‪ .‬وتستخدم هذه القدرة يف معاجلة ما يسمعه اإلنسان أو يقرأه‪.‬‬
‫مثال‪:‬‬
‫ِ‬
‫كأسا من املاء»‪.‬‬‫الر ُج َل اجلال َس هناك ً‬ ‫«أعطيت َّ‬
‫ُ‬ ‫شخص هذه اجلملة‬ ‫ٌ‬ ‫استقبل‬
‫تتم َّثل اللغة االستقبالية بقدرة ا ُملستقبِل عىل معاجلة هذه اجلملة‪ ،‬فأحد‬
‫الفرضيات هي أن يقوم ا ُملستقبِل بتفكيك اجلملة إىل الكلامت ا ُمل ِّ‬
‫كونة هلا كالتايل‪:‬‬
‫أعطى‪ ،‬ت‪ ،‬ال‪ ،‬رجل‪ ،‬ال‪ ،‬جالس‪ ،‬هناك‪ ،‬كأسا‪ ،‬من‪ ،‬ال‪ ،‬ماء‪.‬‬
‫وحتديد أدوارها يف تركيب اجلملة كالتايل‪:‬‬
‫أعطى (فعل ماض)‪ ،‬ت (حرف ينوب عن اسم)‪ ،‬الـ (كلمة تعريفية ملا‬
‫بعدها)‪ ،‬رجل (اسم جنس)‪ ،‬الـ (كلمة تعريفية ملا بعدها)‪ ،‬جالس (صفة)‪،‬‬
‫كأسا (اسم جنس)‪ ،‬من (حرف)‪ ،‬الـ (كلمة تعريفية ملا‬
‫هناك (اسم إشارة)‪ً ،‬‬
‫بعدها)‪ ،‬ماء (اسم جنس)‪.‬‬
‫يمكن بعد ذلك حتليل تركيب اجلملة َو ْفق قواعد الرتكيب اللغوية‪ ،‬بحيث‬
‫ُتدد أولوية ترابط الكلامت مع بعضها البعض لتكوين العبارات انتها ًء بتكوين‬
‫اجلملة (‪ .)Parsing‬فعىل سبيل املثال‪ ،‬تُربط الكلمتان «اجلالس» و «هناك»‬
‫لتكوين العبارة «اجلالس هناك» ومن ثم تُدخل عليهام كلمة «الرجل» لتكوين‬
‫العبارة األوسع «الرجل اجلالس هناك»‪ ،‬وذلك لتحديد قراءة أن «اجلالس‬
‫هناك» عبارة مرتبطة بـ «الرجل»‪ .‬ويقوم ا ُملستقبِل بدمج التحليل الذي توصل‬
‫له مع داللة املفردات (‪ )Lexical Semantics‬ومع ُمعتقداته‪ ،‬وهي حقيقة أن‬
‫الكأس ُيع َطى والرجل هو الذي ُيعطِي‪ ،‬الستخراج داللة اجلملة وحتويلها إىل‬
‫املفاهيم العقلية املناسبة‪ ،‬وهي حتديد ا ُملعطِي‪ ،‬وا ُملع َطى‪ ،‬وا ُملع َطى له‪ ،‬وصفة‬
‫ا ُملع َطى له أثناء الكالم‪.‬‬

‫‪-19-‬‬
‫Ÿ Ÿقدرته عىل إنتاج اللغة‪ ،‬أو ما يعرف باللغة اإلنتاجية (‪)Productive Language‬‬
‫أو اللغة التعبريية (‪ :)Expressive Language‬وذلك بتحويل املفاهيم‬
‫ُوصل هذه التصورات‬ ‫والتصورات العقلية إىل تراكيب لغوية مناسبة ت ِ‬
‫ُّ‬
‫واملفاهيم‪ ،‬أو قري ًبا منها‪ ،‬إىل املستقبل‪ .‬وهي عملية عكسية للغة االستقبالية‪.‬‬
‫وتستخدم هذه القدرة أثناء الكالم أو الكتابة‪.‬‬
‫مثال‪:‬‬
‫حادثة انتهت‪ ،‬وهي إعطاء‬ ‫ٍ‬ ‫ُيريد ا ُملتحدِّ ث إيصال مفهوم يف عقله يتم َّثل يف‬
‫كأسا من املاء‪ .‬فأحد ال َف َرض َّيات أنه‬ ‫ٍ‬
‫رجل جيلس اآلن يف مكان يمكن رؤيته ً‬
‫ثم يستدعي الكلامت‬ ‫جلمل‪ ،‬ومن َّ‬ ‫يستدعي قواعد اللغة التي تع َّلمها لبناء ا ُ‬
‫ِ‬ ‫ِ‬
‫تتم هذه العملية كالتايل‪:‬‬‫التي تُوصل املعنى و ُيو ِّلد اجلملة‪ُ .‬يمكن أن َّ‬
‫Ÿ Ÿاملفهوم ا ُملراد إيصا ُل ُه ُيشري إىل فِعل‪ ،‬ويوجد فيه فاعل ومفعوالن‪ ،‬ووصف‬
‫حلال أحد املفعولني‪ ،‬فيستدعي قاعدة لغوية تع َّلمها للتعبري عن هذا املفهوم‬
‫ليحصل عىل‪:‬‬
‫فعل ‪ +‬فاعل ‪ +‬املفعول األول ‪ +‬صفة ‪ +‬املفعول الثاين‪.‬‬
‫(((‬

‫ُوصل معنى احلدث‪ ،‬وهي هنا اإلعطاء‪ ،‬ثم‬ ‫ٍ‬


‫كلمة يف الذاكرة ت ِ‬ ‫Ÿ Ÿيبحث عن‬
‫يرصفها لتُناسب الزمان املايض ولتشري إىل أن َمن أعطى هو ا ُملتحدِّ ث‪،‬‬
‫وو ْف ًقا لقواعد الرصف التي تع َّلمها‪ ،‬يولد الكلمة «أعطيت»‪.‬‬
‫َ‬
‫Ÿ Ÿ يبحث يف الذاكرة عن كلمة تُشري إىل َمن حدث له الفعل‪ ،‬فيولد كلمة‬
‫«الرجل»‪.‬‬
‫Ÿ Ÿ يستدعي الكلامت املناسبة لوصف ا ُملعطى له‪ ،‬و ُيولد عبارة «اجلالس‬
‫هناك»(((‪.‬‬
‫Ÿ Ÿ ُيشار إىل ا ُملعطى؛ وذلك باستدعاء الكلامت الداللية من الذاكرة‪ ،‬وتوليد‬
‫عبارة «كأسا من املاء»(((‪.‬‬

‫‪ -1‬يشري الرمز «‪ »+‬هنا إىل عالقة ترتيب بني الكلامت‪.‬‬


‫‪ -2‬هذه العبارة أيضا تولد وف ًقا لقواعد تركيبية بنفس طريقة توليد اجلملة‪ ،‬لذا فإننا ال نحتاج إلعادة رشحها مرة أخرى‪.‬‬
‫أيضا‪.‬‬
‫‪ -3‬نفس احلال الذي ذكر يف توليد عبارة ‪-‬اجلالس هناك‪ -‬ينطبق هنا أ ً‬

‫‪-20-‬‬
‫ثم‬
‫وألن الذكاء االصطناعي هو ف ٌّن هيتم بدراسة وفهم اإلدراك البرشي‪ ،‬ومن َّ‬
‫حماولة بناء برجميات حاسوبية ُتاكي عملية اإلدراك‪ ،‬فإن الباحثني يف جمال الذكاء‬
‫االصطناعي يعكفون عىل دراسة هذه ال ُقدُ رات الثالث لدى اإلنسان وحماولة بناء‬
‫ِ‬
‫سا من‬ ‫برجميات حاسوبية ُتاكيها‪ .‬وتبقى كيفية عمل هذه ال ُقدُ رات لدى اإلنسان ًّ‬
‫أرسار الكون التي وضعها اهلل سبحانه وتعاىل وال سبيل ملعرفتها عىل سبيل اليقني(((‪.‬‬
‫وتستمد النظريات التي تطرح يف كثري من األدبيات اخلاصة هبذه الدراسات من‬
‫فروع خمتلفة ُتثل بنية حتتية ملجال الذكاء االصطناعي‪ ،‬ومن هذه الفروع‪ :‬اللسانيات‬
‫(‪ )Linguistics‬واللسانيات النفسية (‪ ،)Psycholinguistics‬الرياضيات واإلحصاء‬
‫(‪ ،)Mathematics and Statistics‬الفلسفة واملنطق (‪،)Philosophy and Logic‬‬
‫علم اإلدراك (‪ ،)Cognitive Science‬نظرية احلوسبة (‪.)Theory of Computation‬‬
‫لذا فإن الدارس ملجال اللسانيات احلاسوبية يعمل يف منطقة تقاطع هلذه الفنون‪ ،‬إضافة‬
‫متس بعض التطبيقات‪ ،‬مثل معاجلة اإلشارات (‪)Signal Processing‬‬ ‫إىل فنون أخرى ُّ‬
‫َلِ ْن يعمل عىل حتويل الكالم املسموع إىل نصوص مكتوبة‪.‬‬
‫سنتطرق إىل مستويات معاجلة اللغة البرشية بد ًءا من تكوين الكلمة‬
‫َّ‬ ‫ويف هذا الفصل‬
‫من األصوات إىل إدراك املعنى وبناء املعتقدات‪ .‬ثم سنستعرض بعض األمثلة عىل‬
‫املواضيع التي يعمل عليها الباحثون يف جمال اللسانيات احلاسوبية‪ ،‬مع الرتكيز عىل‬
‫بعضا من الطرق ا ُملستخدَ مة‬
‫وآخ ًرا سنستعرض ً‬ ‫معاجلة النص فقط دون معاجلة الكالم‪ِ .‬‬
‫ملعاجلة النصوص‪.‬‬

‫‪ -2‬مستويات معاجلة اللغة‬


‫متر معاجلة اللغات الطبيعية عىل مستويات عدَّ ة‪ ،‬بداي ًة من تكوين الكلمة من‬
‫ُّ‬
‫ستوى‬
‫جلمل من الكلامت‪ ،‬وانتها ًء بفهم الكالم‪ .‬ولكل ُم ً‬
‫مرورا بتكوين ا ُ‬
‫ً‬ ‫األصوات‪،‬‬
‫قواعدُ تركيبية تُستخدم لتكوين وحدات هذا املستوى‪ .‬يمكن حتديد املستويات معاجلة‬
‫اللغة بالتايل (‪:) Allen J. , 1994; McCarthy, 2018‬‬

‫‪ -1‬هذا اعتقاد الكاتب عىل األقل‪.‬‬

‫‪-21-‬‬
‫Ÿ Ÿاملستوى الصويت (‪ :)Phonetic Level‬وهو املستوى األسايس (‪)primitive‬‬
‫كون للغة‪ .‬ويف هذا املستوى‪ُ ،‬تلل األصوات وترابطها مع بعضها ملعرفة‬ ‫ا ُمل ِّ‬
‫الكلامت ا ُملرادة‪.‬‬
‫Ÿ Ÿاملستوى الرصيف (‪ :)Morphological Level‬يف هذا املستوى ُتلل بنية الكلامت‬
‫ُسمى الوحدات الرصفية (‪ .)Morphemes‬فمثال‪،‬‬ ‫بنا ًء عىل وحدات أساسية‪ ،‬ت َّ‬
‫ٍ‬
‫وحدات‪ ،‬األوىل «يـ» لإلشارة إىل أن الفعل‬ ‫كونة من ثالث‬ ‫كلمة «يذهبون» ُم َّ‬
‫قام به طرف ثالث‪ ،‬والثانية «ذهب» وهو الفعل‪ ،‬و ُيمثل الوحدة األساسية‬
‫للكلمة‪ ،‬والثالثة «ون» لإلشارة إىل مجع ا ُملذكَّر‪.‬‬
‫Ÿ Ÿاملستوى الرتكيبي للجمل (‪ :)Syntactic Level‬يف هذا املستوى‪ُ ،‬يلل ترابط‬
‫مكن حتديد‬ ‫الكلامت ملعرفة كيف تتكون اجلملة‪ ،‬ومن خالل هذا التحليل ي ِ‬
‫ُ‬
‫ِ‬
‫الر ُج َل جال ًسا» عىل‬
‫«رأيت َّ‬
‫ُ‬ ‫قراءة اجلملة‪ .‬فعىل سبيل املثال‪ ،‬يمكن حتليل مجلة‬
‫قراءتني‪ ،‬األوىل وهي الشاذة‪:‬‬
‫{ [ (رأى ت) (الـ رجل) ] (جالسا) }‬
‫«جالسا» حاال للرائي‪ .‬ألنه وبحسب التحليل‬
‫ً‬ ‫ويف هذه القراءة‪ ،‬تكون كلمة‬
‫أعاله‪ُ ،‬ربطت الكلمتان «رأيت» و «الرجل» ً‬
‫أول لتكوين عبارة «رأيت الرجل»‬
‫«جالسا» إىل هذه العبارة كام هو موضح يف األقواس‪.‬‬
‫ً‬ ‫ثم أدخلت كلمة‬ ‫ومن َّ‬
‫جالسا وهو يرى الرجل‪ .‬أما القراءة‬
‫ً‬ ‫فيكون ناتج التحليل أن الذي رأى كان‬
‫الثانية وهي الشائعة‪:‬‬
‫{ (رأى ت) [ (الـ رجل) (جالسا) ] }‬
‫«جالسا» مع بعضهام أوال لتكوين عبارة «الرجل‬
‫ً‬ ‫ففيها ُربطت الكلمتان «الرجل» و‬
‫وضح يف األقواس‪.‬‬‫جالسا»‪ ،‬ثم ُأدخلت عىل هذه العبارة كلمة «رأيت» كام هو ُم َّ‬ ‫ً‬
‫جالسا‪ ،‬وا ُملتحدِّ ث رآه عىل هذه احلال‪.‬‬
‫ً‬ ‫املرئي هو الذي كان‬
‫َّ‬ ‫فتُشري القراءة إىل أن‬
‫عرف بالغموض الرتكيبي (‪Syntactic‬‬
‫وهذا االختالف يف حتليل نفس اجلملة ُي َ‬
‫‪ ،)Ambiguity) (Manning & Schütze, 1999‬أي أن اجلملة يمكن تركيبها‬
‫ناتج ُم ِتلف‪.‬‬ ‫ٍ‬
‫بأك َث َر من طريقة لك ٍُّل منها ٌ‬

‫‪-22-‬‬
‫Ÿ Ÿاملستوى الداليل (‪ :)Semantic Level‬يف هذا املستوى‪ ،‬تُستخرج املعاين‬
‫احلرفية للمفردات‪ ،‬ومن ثم تُربط هذه املعاين لتكوين معنى اجلملة كاملة‪ ،‬وهو‬
‫ما يعرف بالداللة الرتكيبية (‪Compositional Semantics) (Sternefeld‬‬
‫حلسبان‬‫‪ .)& Sternefeld, 2013‬ال ُيؤخذ سياق اجلملة أو مناسبتها يف ا ُ‬
‫الستخراج معناها‪ ،‬وإنام يؤخذ املعنى احلريف فقط‪ .‬فجملة «بلغ السيل الزبى»‬
‫تعني أن هنالك ما ًء ارتفع ووصل الزبى‪.‬‬
‫Ÿ Ÿاملستوى التداويل (‪ :)Pragmatic Level‬يف هذا املستوى‪ُ ،‬تلل اجلملة َو ْفق‬
‫السياق واملقام الزماين واملكاين واالجتامعي الذي قيلت فيه وليس بالرضورة‬
‫كونة هلا‪ .‬وملعرفة معنى اجلملة يف‬ ‫أن يكون مطاب ًقا للمعنى احلريف للكلامت ا ُمل ِّ‬
‫هذا املستوى‪ ،‬حيتاج ا ُملستقبِل إىل استخدام معرفة إضافية خارج إطار املعرفة‬
‫اللغوية (‪ ،)Extra-linguistic Knowledge‬وهي ا ُملعتقدات (‪ )Beliefs‬التي‬
‫رضوري ملعرفة املجاز‬
‫ٌّ‬ ‫لدى الشخص عن العامل‪ .‬والتحليل عىل هذا املستوى‬
‫احلكَم واألمثال والقصائد‪ .‬ويف هذا‬ ‫اللغوي‪ ،‬والتعريض‪ ،‬والتلميح‪ ،‬وفهم ِ‬
‫املستوى‪ ،‬عىل سبيل املثال‪ُ ،‬يعرف املعنى املراد جلملة «بلغ السيل الزبى»‪ ،‬وهي‬
‫أن الصرب قد ن َِفدَ ‪ ،‬إذا ال ماء ارتفع وال زبى موجودة يف الواقع ا ُملشار إليه‪.‬‬
‫·املستوى اخلطايب (‪ :)Discourse Level‬يف هذا املستوى‪ُ ،‬يلل اخلطاب بمعاجلة‬
‫العالقات بني اجلمل املكونة له‪ .‬فتُحلل كل مجلة وفق اجلمل التي تسبقها ملعرفة‬
‫تأثري تلك اجلمل عىل وجود هذه اجلملة‪ .‬ويعمل حتليل املستوى اخلطايب عىل‬
‫معرفة اهلدف العام من الكالم والرسائل التي حيتوهيا‪.‬‬
‫كل ُمستوى حيتوي عنارص‬ ‫وكام هو ُمالحظ‪ ،‬فإن اللغة ُت ِّثل نظا ًما ُمتعدِّ د املستويات‪ُّ ،‬‬
‫ترتكَّب مع بعضها البعض لتكوين مركبات متثل بدورها عنارص املستوى الذي فوقه‬
‫كام هو موضح يف الشكل ‪ 1‬أدناه‪ .‬كام أن املعاجلة يف ك ُِّل مستوى قد تستخدم معلومات‬
‫من املستوى الذي فوقه‪ .‬فاإلنسان يستخدم املعتقدات التي لديه ملعاجلة اللغة يف مجيع‬
‫املستويات بد ًءا من الصوت وانتها ًء باخلطاب‪ .‬وبعد املعاجلة حيصل اإلنسان عىل‬
‫عرف بـتحديث‬ ‫معتقدات إضافية تضاف ملعتقداته السابقة أو تقوم بتغيريها وهو ما ُي َ‬
‫املعتقدات (‪ )Belief Updating‬أو مراجعة النظريات (‪.)Theory Revision‬‬

‫‪-23-‬‬
‫املعتقدات‬

‫اخلطاب‬

‫التداولية‬

‫الداللة‬

‫تركيب اجلملة‬

‫الكلمة‬

‫الصوت‬

‫الشكل ‪ :1‬مستويات معاجلة اللغة‬

‫‪ 2.1‬بعض عمليات ُمعاجلة اللغة يف خمتلف املستويات‬


‫ٍ‬
‫أنظمة لتحليل الرتاكيب‬ ‫يعمل الباحثون يف جمال معاجلة اللغات الطبيعية عىل تطوير‬
‫ُ‬
‫العمل عىل‬ ‫وضحة يف الشكل ‪ .1‬إذ إنه من الرضوري‬ ‫اللغوية يف خمتلف املستويات ا ُمل َّ‬
‫ٍ‬
‫أنظمة تعالج‬ ‫املستويات الدُّ نيا‪ ،‬مستويات الصوت والكلمة واجلملة‪ ،‬لكي يمكن بناء‬
‫اللغة يف املستويات العليا‪ ،‬كمستويات التداولية واخلطاب‪ .‬وسنسلط الضوء يف هذا‬
‫طورو أنظمة معاجلة اللغات‬ ‫اجلزء عىل بعض من املها ِّم التي يعمل عليها الباحثون و ُم ِّ‬
‫الطبيعية‪ .‬وأود التنويه إىل أنني هنا ال ُأغطي إال جز ًءا ً‬
‫يسريا من هذه املها ِّم وذلك إليضاح‬
‫ٍ‬
‫فصل‪ ،‬وال‬ ‫املفاهيم واألفكار الرئيسية فقط؛ إذ ال يمكن رشح تفاصيل هذه املهام يف‬
‫ٍ‬
‫واحد‪.‬‬ ‫ٍ‬
‫كتاب‬ ‫حتى يف‬

‫‪-24-‬‬
‫فعىل املستوى الصويت‪ ،‬يعمل الباحثون عىل دراسة حتويل املوجات الصوتية إىل‬
‫التعرف عىل الكالم (‪،)Speech Recognition‬‬ ‫ٍ‬ ‫ٍ‬
‫كلامت مكتوبة‪ ،‬وهو ما يعرف بتطبيقات ُّ‬
‫أو حتويل الكالم إىل نصوص (‪.)Speech-to-Text) (Gales & Young, 2007‬‬
‫التعرف عىل‬
‫ويتطلب العمل عىل هذا املستوى دراسة لنمطية األصوات بحيث يمكن ُّ‬
‫ٍ‬
‫صوت بنا ًء عىل األصوات التي قبله‬ ‫الصوت بنا ًء عىل األصوات املصاحبة له (معرفة‬
‫أيضا دراسة نمطية تسلسل الكلامت؛ إذ‬ ‫التعرف عىل الكالم ً‬
‫مثل)‪ .‬ومما ُيساعد عىل ُّ‬ ‫ً‬
‫إن دراسة هذه النمطية تساعد يف معرفة الكلمة التي قيلت بنا ًء عىل الكلامت املصاحبة‬
‫أيضا توليد الكالم (‪)Speech Synthesis‬‬ ‫هلا‪ .‬ومن املها ِّم التي يعمل عليها الباحثون ً‬
‫أو حتويل النصوص إىل كالم (‪Text-to-Speech) (Allen, Hunnicutt, Klatt,‬‬
‫ٍ‬
‫أنظمة تقرأ امللفات‬ ‫‪ .)Armstrong, & Pisoni, 1987‬وهيدف هذا العمل عىل تطوير‬
‫النصية‪.‬‬
‫أما عىل مستوى ُمعاجلة الكلمة‪َّ ،‬‬
‫فإن من أهم عمليات املعاجلة يف هذا املستوى هو‬
‫التحليل الرصيف (;‪Morphological Analysis) (Jurafsky & Martin, 2008‬‬
‫‪ .) McCarthy, 2018‬فمن خالل هذا التحليل‪ُ ،‬تدد الزوائد (‪ )Affixes‬التي تدخل‬
‫مكن أن تكون يف بدايتها (‪ ،)Prefixes‬مثل حرف الياء يف كلمة‬ ‫عىل الكلمة والتي ي ِ‬
‫ُ‬
‫«يـذهب»‪ ،‬أو يف وسطها (‪ ،)Infixes‬مثل حرف األلف يف كلمة «ذاهب»‪ ،‬أو يف هنايتها‬
‫(‪ ،)Suffixes‬مثل حريف الواو واأللف يف كلمة «ذهبوا»‪ .‬فمن خالل التحليل الرصيف‬
‫للكلامت السابقة يمكن معرفة أن هذه الكلامت هلا نفس اجلذر (‪ )Root‬وهو «ذهب»‪.‬‬
‫وختتلف املعاجلة الرصفية باختالف اهلدف منها‪ .‬ففي تطبيقات اسرتجاع املعلومات‬
‫مثل‪ ،‬وهو ا ُملصطلح العلمي املستخدم لإلشارة للتقنية‬
‫(‪ً )Information Retrieval‬‬
‫طورين هلذه‬ ‫التي تُبنى عليها ُمركات البحث (‪ ،)Search Engines‬يقوم بعض ا ُمل ِّ‬
‫التطبيقات باستخراج ُجذور الكلامت لنصوص االستعالم (‪ )Queries‬وذلك للبحث‬
‫بدل من مطابقة الكلامت كام‬ ‫ٍ‬
‫كلامت هلا نفس اجلذور ً‬ ‫عن النصوص التي حتتوي عىل‬
‫مثل االستعالم «أعامل احلجاج»‪ ،‬فإنه بمطابقة النصوص‬ ‫هي‪ .‬فلو أدخل املستخدم ً‬
‫التي فيها إحدى هاتني الكلمتني كام مها‪ ،‬سيسرتجع النظام تلك النصوص التي حتتوي‬
‫إحدى هاتني الكلمتني أو كالمها فقط‪ ،‬وسيستبعد نصوص ًا ال حتتوي أيا منهام ولكن‬
‫«حج»‪ .‬أما‬
‫«حيجون»‪ ،‬وغريها من مشتقات َّ‬ ‫ُّ‬ ‫حتتوي عىل كلامت مثل «حج»‪« ،‬حجيج»‪،‬‬

‫‪-25-‬‬
‫بإعادة الكلامت يف نص االستعالم‪ ،‬ويف النصوص التي يف قاعدة البيانات إىل جذورها‪،‬‬
‫ِ‬ ‫سيتم اسرتجاعه و َع ْرضه عىل ا ُمل‬
‫ستخدم‪.‬‬ ‫ُّ‬ ‫أي نص توجد فيه كلمة ُمشت َّقة من َّ‬
‫«حج»‬ ‫فإن َّ‬
‫التعرف عىل أجزاء الكالم‬
‫أما عىل املستوى الرتكيبي‪ ،‬فمن مهام املعاجلة األساسية ُّ‬
‫(‪ )Parts of Speech‬للكلامت (& ‪Kübler & Mohamed, 2011; Manning‬‬
‫‪ .)Schütze, 1999‬ومصطلح أجزاء الكالم غري ُمستخدَ م يف دراسات اللغة العربية‬
‫ٍ‬
‫بشكل شائ ٍع(((‪ ،‬لكنه من املصطلحات املستخدمة يف الدراسات املتعلقة ببعض اللغات‬
‫األخرى‪ ،‬وخاصة اإلنجليزية‪ .‬و ُيشري مصطلح أجزاء الكالم إىل األصناف التي يمكن‬
‫ُنسب إليها كلامت اللغة بنا ًء عىل دورها الرتكيبي‪ .‬عىل سبيل املثال‪ ،‬يمكن اعتبار‬
‫أن ت َ‬
‫هذه القائمة‪ :‬اسم جنس (ومثال ذلك كلمة «إنسان»)‪ ،‬اسم شخص (ومثال ذلك‬
‫كلمة «حممد»)‪ ،‬فعل‪ ،‬ضمري‪ ،‬حرف‪ ،‬صفة‪ ،‬حال‪ ،‬رابط (مثال ذلك واو العطف)‪،‬‬
‫أجزاء للكالم‪ .‬وال يوجد اتفاق تا ٌّم عىل جمموعة ثابتة ألجزاء الكالم للغة ما‪ ،‬بل إن‬
‫تتغي بحسب نوع التحليل ورؤية من يقوم بذلك‪ .‬فقد يبدأ بعض‬ ‫هذه املجموعة قد َّ‬
‫ومن َث َّم يقومون بإضافة أجزاء أخرى عند احلاجة‪ .‬إحدى‬ ‫بمجموعة معينة‪ِ ،‬‬
‫ٍ‬ ‫الدارسني‬
‫ُ َّ‬
‫ٍ‬
‫قائمة ألجزاء الكالم هو احتاد البيانات اللغوية (‪Linguistic‬‬ ‫اجلهات التي قامت بتبني‬
‫‪ ((()Data Consortium‬بجامعة بنسلفانيا بالواليات املتحدة األمريكية‪ .‬وتُستخدم‬
‫هذه القائمة ألكثر من لغة ومن ضمنها اللغة العربية‪ .‬وهناك باحثون آخرون يتبنُّون‬
‫جمموعة خمتلفة من أجزاء الكالم للغة العربية بحسب املهمة التي يعملون عليها‪ ،‬وآلية‬
‫التحليل التي يستخدموهنا‪.‬‬
‫أما املعاجلة عىل املستوى الداليل‪ ،‬فتتمثل يف حتليل داللة املفردات من خالل معرفة‬
‫ٍ‬
‫معان متقاربة (‪Landauer & Dumais,‬‬ ‫املفردات التي هلا نفس املعنى‪ ،‬أو تلك التي هلا‬
‫‪.)1997; Deerwester, Dumais, Furnas, Landauer, & Harshman, 1990‬‬
‫يمكن استخدام التحليل الداليل يف تطبيقات اسرتجاع املعلومات السرتجاع النصوص‬
‫ِ‬
‫ستخدم‪ ،‬أو هلا معان قريبة منها‪.‬‬ ‫ٍ‬
‫رتادفة للكلامت التي أدخلها ا ُمل‬ ‫ٍ‬
‫كلامت ُم‬ ‫التي حتتوي عىل‬

‫‪ -1‬بحسب علم الكاتب‪ ،‬أنه يف اللغة العربية ُيستخدم مصطلح «أقسام الكالم» لإلشارة إىل األقسام الرئيسية فقط‪ ،‬وهي‬
‫االسم والفعل واحلرف‪.‬‬
‫‪2- https://www.ldc.upenn.edu/‬‬

‫‪-26-‬‬
‫حل َّجاج»‪ ،‬يمكن‬
‫فبالعودة إىل املثال السابق وهو االستعالم باستخدام العبارة «أعامل ا ُ‬
‫من خالل التحليل الداليل إعادة النصوص التي ال تتعلق باحلج فقط‪ ،‬بل حتى بتلك‬
‫أيضا‬
‫«الس ْعي»‪ ،‬وربام ً‬ ‫ٍ‬
‫التي تتعلق بكلامت قريبة منها دالليا كـ «ال ُعمرة» و «الطواف» و َّ‬
‫«منًى» و «عرفات»‪ ،‬بحكم قرب‬ ‫تلك النصوص املتعلقة ببعض املشاعر كـ «مزدلفة» و ِ‬
‫ُ‬
‫هذه املفردات دالل ًّيا من احلج‪ .‬جتدُ ُر اإلشارة إىل أن باحثني قاموا بتطوير قاعدة بيانات‬
‫حتوي مفردات بعض اللغات‪ ،‬ومنها العربية‪ ،‬وارتباطاهتا الداللية من حيث الرتا ُدف‬
‫و ُق ْرب املعاين‪ ،‬واملفاهيم (‪ )Concepts‬التي حتملها هذه الكلامت‪ ،‬والعالقات بني هذه‬
‫واخلاص («رجل‪:‬إنسان»)‪ ،‬وعالقة اجلزء من الكل‬ ‫ِّ‬ ‫املفاهيم كال َعالقة اهلرمية‪ ،‬مثل العا ِّم‬
‫ُعرف هذه الشبكة بشبكة الكلامت (‪.((( ((()WordNet‬‬ ‫(«يد‪:‬جسم»)‪ .‬وت َ‬
‫أما التحليل عىل املستوى التداويل‪ ،‬فهو من أكثر املها ِّم حتد ًيا‪ .‬فبحسب معرفتي‪،‬‬
‫أن األبحاث يف املعاجلة عىل هذا املستوى حمدود ٌة مقارن ًة باألبحاث التي تُعالج اللغة‬
‫يف املستويات األخرى‪ .‬ولعل التطبيقات التي هتدف ملعرفة مقاصد اجلمل وما يبنى‬
‫عليها (‪ )Textual Entailment‬تعمل عىل هذا املستوى إضافة إىل املستوى الداليل‬
‫(‪.)Androutsopoulos & Malakasiotis, 2010‬‬
‫وفيام يتعلق بتحليل اخلطاب‪ ،‬فإنه يستخدم ِ‬
‫لبناء ٍ‬
‫كثري من التطبيقات‪ ،‬منها عىل سبيل‬ ‫ُ‬
‫املثال‪ ،‬التلخيص اآليل (‪ ،)Text Summarization) (Marcu, 2000‬وذلك بتحليل‬
‫النص الستخراج اجلمل األكثر أمهي ًة‪ ،‬والتي تُوصل املعنى الذي أراد الكاتب إيصاله‪.‬‬
‫كذلك معرفة ا ُملؤ ِّلف (‪ ،)Author Identification‬وذلك من خالل حتليل النصوص‬
‫التي كتبها ساب ًقا ملعرفة أسلوب كتابته (‪ )Writing Style‬ومقارنة هذا األسلوب‬
‫بالنص الذي تتم معاجلته ملعرفة ما إذا كان هو كاتب هذا النص أم ال‪ .‬ومن التطبيقات‬
‫أيضا حتليل النصوص ملعرفة حقبها التارخيية وأحوال مؤلفيها عند كتابتها‪ ،‬وغريها من‬
‫التحليالت التي يقوم هبا النُّ َّقاد األدبيون يدو ًّيا‪.‬‬

‫‪1- https://wordnet.princeton.edu/‬‬
‫‪2- http://globalwordnet.org/resources/arabic-wordnet/‬‬

‫‪-27-‬‬
‫ﻣﻌﺎﻟﺠﺔ اللغة‬
‫اﻟﻠﻐﺔ‬
‫معاجلة‬
‫ﻣﻌﺎﻟﺠﺔاﻟﻠﻐﺔ‬
‫اﻟﻠﻐﺔ‬ ‫طرق‬
‫ﻃﺮق‬
‫ﻃﺮقﻣﻌﺎﻟﺠﺔ‬
‫‪2.2‬‬
‫ﻃﺮق‬‫‪2.2‬‬
‫‪2.2‬‬
‫‪2.2‬‬
‫ﻼت‪22‬‬
‫َ ‪2‬‬ ‫داﻟﺔ‪11‬‬
‫ﻣﻦاﻟ ُﻤاﻟﺪاﻟ ُﻤ َﻤﺧﺪﺪﺧ َﺧ‬
‫ﻣﺠﻤﻮﻋﺔﻣﻦﻣﻦ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫تأخذ جمموعة من ا ُمل ُ َ‬ ‫ﺗﺄﺧﺬ‬ ‫ﻛﻮﻧﮭﺎ‬ ‫اﻟﻤﻌﺎﻟﺠﺔﻓﻲﻓﻲ‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫ﻋﻤﻠﯿﺔ‬ ‫ﺗﺘﻤﺜﻞ‬
‫‪1‬‬
‫(((‬ ‫ﻼت‬
‫دخالت‬
‫ﻼت‬ ‫(((𝑓𝑓𝑓𝑓𝑓𝑓ﺗﺄﺧﺬ‬
‫ﺗﺄﺧﺬﻣﺠﻤﻮﻋﺔ‬ ‫ﻛﻮﻧﮭﺎداﻟﺔداﻟﺔ‬
‫ﻓﻲﻛﻮﻧﮭﺎ‬ ‫ﻋﻤﻠﯿﺔاﻟﻤﻌﺎﻟﺠﺔ‬
‫ﺗﺘﻤﺜﻞﻋﻤﻠﯿﺔ‬
‫ﺗﺘﻤﺜﻞ‬
‫تتمثل عملية املعاجلة يف كوهنا دالة‬
‫استخدامها‬
‫يمكناﺳﺘﺨﺪاﻣﮭﺎ‬
‫اﺳﺘﺨﺪاﻣﮭﺎ‬
‫اﺳﺘﺨﺪاﻣﮭﺎ‬ ‫ﯾﻤﻜﻦ‬ ‫قيمة‬
‫ﻗﯿﻤﺔ‬
‫ﻗﯿﻤﺔ𝒚𝒚𝒚𝒚𝒚𝒚ﯾﻤﻜﻦ‬
‫ﯾﻤﻜﻦ‬ ‫وﺗﻌﯿﺪﻗﯿﻤﺔ‬ ‫وتعيد‬
‫وﺗﻌﯿﺪ‬ ‫عليها‬
‫ﻋﻠﯿﮭﺎ‬
‫ﻋﻠﯿﮭﺎوﺗﻌﯿﺪ‬ ‫العمليات‬
‫اﻟﻌﻤﻠﯿﺎت‬
‫اﻟﻌﻤﻠﯿﺎتﻋﻠﯿﮭﺎ‬
‫ﺑﺒﻌﺾاﻟﻌﻤﻠﯿﺎت‬ ‫ببعض‬
‫ﺑﺒﻌﺾ‬ ‫لتقوم‬
‫ﻟﺘﻘﻮم‬
‫ﻟﺘﻘﻮمﺑﺒﻌﺾ‬ ‫𝑿𝑿𝑿𝑿𝑿𝑿ﻟﺘﻘﻮم‬ ‫=‬ ‫!!!!!!}}𝑥𝑥!!𝑥𝑥𝑥𝑥==‬
‫!!!‬
‫!!!!}‬
‫املدخالت‬ ‫تكون‬ ‫اﻟﻠﻐﺔ‪،‬أن‬
‫يمكن‬ ‫اللغة‪،‬‬ ‫القيم ا ُمل‬
‫اﻟﻘﯿﻢ َ‬ ‫ٍ‬
‫ﺗﻜﻮن‬
‫أنﺗﻜﻮن‬
‫ﺗﻜﻮن‬ ‫أنأن‬ ‫ﯾﻤﻜﻦ‬
‫ﯾﻤﻜﻦ‬
‫ﯾﻤﻜﻦ‬ ‫اﻟﻠﻐﺔ‪،‬‬
‫ﻣﻌﺎﻟﺠﺔاﻟﻠﻐﺔ‪،‬‬‫معاجلةﻣﻌﺎﻟﺠﺔ‬
‫ﻣﻌﺎﻟﺠﺔ‬ ‫ﻓﻔﻲ‬
‫ﻓﻔﻲ‬ ‫ﻠﺔ‪.‬ﻓﻔﻲ‬ ‫ففي‬
‫لة‪َ ُ .‬ﻤﺧﺪﺪ َﺧ َﺧ‬
‫ﻠﺔ‪.‬‬
‫ﻠﺔ‪.‬‬ ‫دخ ُﻤاﻟﺪاﻟ ُﻤ‬
‫اﻟﻘﯿﻢاﻟ‬
‫اﻟﻘﯿﻢ‬ ‫ﺑﺨﺼﻮص‬‫بخصوص‬
‫ﺑﺨﺼﻮص‬
‫ﺑﺨﺼﻮص‬ ‫تٍ‬
‫ت‬‫ﻗﺮارا ٍ‬
‫ت‬ ‫قرارات‬
‫ﻗﺮارا ٍ‬ ‫ﻻﺗﺨﺎذ‬
‫ﻻﺗﺨﺎذﻗﺮارا‬ ‫الختاذ‬
‫ﻻﺗﺨﺎذ‬
‫حالة‬ ‫ل‪ ،‬يف‬
‫اﻟﻜﻠﻤﺔ‪،‬‬ ‫ﻣﻌﺎﻟﺠﺔ ً‬
‫ج‬
‫ﺣﺎﻟﺔأو ُ َ‬
‫ﻣﻌﺎﻟﺠﺔ‬ ‫الكلمة‪،‬‬
‫ﺣﺎﻟﺔ‬ ‫معاجلة‬
‫ﺎ‪،‬ﻓًﻓًﺎ‪،‬‬
‫ﺎ‪،‬ﻓﻲﻓﻲ‬ ‫أﺣﻓً‬ ‫حالة‬ ‫يف‬ ‫أحر ًفا‪،‬‬ ‫ﻣﻌﺎﻟﺠﺔ ُ‬ ‫الصوت‪ ،‬أو‬ ‫معاجلةﻓﻲ‬
‫ﺎ‪،‬ﺗًﺗًﺎ‪،‬ﺎ‪،‬ﻓﻲ‬ ‫اﻟﻤﺪﺧﻼتحالة‬
‫أﺻﻮاﺗً‬ ‫يف‬ ‫أصواتًا‪،‬‬
‫اﻟﻜﻠﻤﺔ‪،‬‬
‫اﻟﻜﻠﻤﺔ‪،‬‬ ‫ﻣﻌﺎﻟﺠﺔ‬ ‫ﻓﻲﺣﺎﻟﺔ‬ ‫أﺣ ُﺮ ُﺮ‬ ‫اﻟﺼﻮت‪،‬أوأوأو‬
‫أﺣ ُﺮ‬ ‫اﻟﺼﻮت‪،‬‬
‫اﻟﺼﻮت‪،‬‬ ‫ﻣﻌﺎﻟﺠﺔ‬
‫ﻣﻌﺎﻟﺠﺔ‬ ‫ﺣﺎﻟﺔ‬
‫ﻓﻲﺣﺎﻟﺔ‬
‫ﺣﺎﻟﺔ‬ ‫أﺻﻮا‬
‫أﺻﻮا‬ ‫اﻟﻤﺪﺧﻼت‬
‫اﻟﻤﺪﺧﻼت‬
‫ِّ‬
‫الدوال‪.‬‬ ‫الوصول هلذه‬ ‫ُ‬ ‫مكن‬‫معاجلة النص‪ ،‬ويبقى السؤال هنا هو كيف ي ِ‬
‫ﻟﮭﺬه‬
‫اﻟﻮﺻﻮ ُلﻟﮭﺬه‬
‫ﻛﯿﻒُﻤﯾﻜُﻤﻦِﻜﻦاﻟﻮﺻﻮ ُل‬ ‫اﻟﺴﺆالھﻨﺎھﻨﺎھﻮھﻮﻛﯿﻒ ﯾ‬ ‫ﻰﻰ ُاﻟﺴﺆال‬ ‫وﯾﺒﻘ‬
‫أو َ ُﺟ َ َﻤ ًﻼ‪ ،‬ﻓﻲ ﺣﺎﻟﺔ ﻣﻌﺎﻟﺠﺔ اﻟﻨﺺ‪ ،‬وﯾﺒﻘﻰ اﻟﺴﺆال ھﻨﺎ ھﻮ ﻛﯿﻒ ِﯾُﻤ ِﻜﻦ اﻟﻮﺻﻮ ُل ﻟﮭﺬه‬ ‫اﻟﻨﺺ‪،‬وﯾﺒﻘ‬ ‫ﻣﻌﺎﻟﺠﺔاﻟﻨﺺ‪،‬‬ ‫ﺣﺎﻟﺔﻣﻌﺎﻟﺠﺔ‬ ‫ﻼ ً‪،‬ﻼ‪،‬ﻓﻲﻓﻲﺣﺎﻟﺔ‬ ‫أوأو ُﺟﻤ ُﺟ ًﻤ‬
‫الطرق ا ُملستخدمة‪ ،‬والتي بدأ ُّ‬
‫يقل استخدامهـــا حال ًّيا‪ ،‬النُّ ُظم اخلـــبرية‬ ‫من ﱢل‬
‫اﻟﺪوا‪ .‬ﱢل‪.‬‬
‫اﻟﺪوالﱢ‪.‬‬ ‫اﻟﺪوا‬
‫(‪ .)Expert Systems) (Giarratano & Riley, 2004‬وتُبنى هذه النُّ ُظم بربجمة قواعد‬
‫��������‬
‫��������‬ ‫ﺎ‪،‬ﯿًّﯿًّﺎ‪،‬ﺎ‪��������،‬‬ ‫ﺣﺎﻟ‬
‫ﺣﺎﻟ‬ ‫اﺳﺘﺨﺪاﻣﮭﺎﺣﺎﻟﯿًّ‬
‫اﺳﺘﺨﺪاﻣﮭﺎ‬
‫ﯾﻘﻞﱡاﺳﺘﺨﺪاﻣﮭﺎ‬ ‫ﺑﺪأﯾﻘﻞﱡﯾﻘﻞﱡ‬ ‫واﻟﺘﻲﺑﺪأﺑﺪأ‬ ‫واﻟﺘﻲ‬ ‫ﺴﺘﺨﺪﻣﺔ‪،‬واﻟﺘﻲ‬ ‫ﺴﺘﺨﺪﻣﺔ‪،‬‬
‫ﺴﺘﺨﺪﻣﺔ‪،‬‬ ‫اﻟﻄﺮقاﻟ ُﻤاﻟاﻟ ُﻤ ُﻤ‬‫اﻟﻄﺮق‬‫ﻣﻦاﻟﻄﺮق‬ ‫ﻣﻦﻣﻦ‬
‫احلالة‬ ‫وتكون الدا َّلة يف هذه‬ ‫بصيغة إذا‪-‬فإن)‬ ‫منطقية‬ ‫ج ًل‬ ‫تكون عاد ًة ُ َ‬ ‫املعاجلة (والتي‬
‫‪..(Giarratano‬‬
‫‪(Giarratano‬‬
‫&‪.(Giarratano‬‬ ‫‪&&Riley,‬‬ ‫‪Riley,‬‬
‫)‪Riley,2004‬‬ ‫)‪2004‬‬
‫‪2004)((Expert‬‬ ‫‪Expert‬‬
‫‪(ExpertSystems‬‬ ‫‪Systems‬‬ ‫‪Systems‬‬ ‫�������)‬
‫������� ) ً)‬ ‫�������‬
‫قواعد‬ ‫املطورون بربجمة‬ ‫يقوم‬ ‫الرصيف‪،‬‬ ‫التحليل‬ ‫تطبيقات‬ ‫فمثل يف‬ ‫هي هذه القواعد‪.‬‬
‫ﺑﺼﯿﻐﺔ‬
‫قواعد‬
‫ﺑﺼﯿﻐﺔ‬ ‫ﺑﺼﯿﻐﺔ‬ ‫ُربمج‬‫ﻣﻨﻄﻘﯿﺔ‬
‫ﻣﻨﻄﻘﯿﺔ‬‫ﻣﻨﻄﻘﯿﺔ‬
‫حيث ت‬ ‫ﻼﻼ‬ ‫ﻼ َﻤ ً ً‬ ‫ﻋﺎدةً ُةًﺟ َﻤ‬
‫الرتكيبي‪ُ،‬ﺟ ًُﺟ َﻤ‬ ‫ﺗﻜﻮنﻋﺎدةً‬
‫ﻋﺎد‬ ‫ﺗﻜﻮن‬‫ﺗﻜﻮن‬
‫التحليل‬ ‫)واﻟﺘﻲ‬
‫)واﻟﺘﻲ‬‫)واﻟﺘﻲ‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‬
‫اﻟﻤﻌﺎﻟﺠﺔيف‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‬
‫احلال‬ ‫كذلك‬ ‫ﻗﻮاﻋﺪ‬
‫ﻗﻮاﻋﺪ‬ ‫ﻗﻮاﻋﺪ‬ ‫ﺑﺒﺮﻣﺠﺔ ًا‬
‫ﺑﺒﺮﻣﺠﺔ‬
‫ﺑﺒﺮﻣﺠﺔ‪،‬‬
‫يدوي‬ ‫الرصيفﻨﱡﻢﻈُﻈُﻢﻢ‬
‫للغة‬
‫ھﺬهﻨﱡاﻟاﻟﻨﱡ‬
‫ﻈُ‬ ‫ھﺬهاﻟ‬ ‫ﺒﻨﻰ‬
‫ﺒﻨﻰھﺬه‬ ‫وﺗُووﺗُﺗُ‬
‫ﺒﻨﻰ‬
‫التحليل‬
‫ﺗﻄﺒﯿﻘﺎت‬
‫هذه‬
‫ﺗﻄﺒﯿﻘﺎت‬ ‫وتواجه‬
‫ﺗﻄﺒﯿﻘﺎت‬ ‫ﻓﻲ‬ ‫ﻓﻲﻓﻲ‬ ‫ﻓﻤﺜﻼ ً ً‬
‫ﻓﻤﺜﻼ‬
‫ﻓﻤﺜﻼ‬ ‫اﻟﻘﻮاﻋﺪ‪ً .‬‬
‫املعاجلة‪.‬‬ ‫اﻟﻘﻮاﻋﺪ‪.‬‬ ‫ھﺬه لدا َّلة‬
‫اﻟﻘﻮاﻋﺪ‪.‬‬ ‫ھﺬه‬
‫ھﺬهن‬
‫كو‬‫ھﻲ ِّ‬ ‫ھﻲا ُمل‬
‫ھﻲ‬ ‫هي‬ ‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺤﺎﻟﺔ‬ ‫ھﺬه‬
‫القواعد‬
‫ھﺬه‬ ‫ھﺬه‬ ‫ﻓﻲ‬‫هذهﻓﻲ‬
‫ﻓﻲ‬ ‫اﻟﺪاﱠﻟﱠﺔﺔ‬
‫اﻟﺪاﺔﻟ‬‫جمموعةﻟﱠ‬
‫اﻟﺪا‬ ‫وﺗﻜﻮن‬
‫وﺗﻜﻮن‬‫وﺗﻜﻮن‬ ‫وتكون‬‫���‬
‫���((‬ ‫���(‬ ‫كاملة‪،‬‬‫���‬
‫���‬ ‫���‬ ‫النحو‬
‫ﯾﺪوﯾﺎ ًﺎ ً‪،،‬‬
‫وجود‬ ‫ﻟﻠﻐﺔإىل‬
‫ﯾﺪوﯾﺎ ً‪،‬‬
‫ﯾﺪوﯾ‬ ‫ﻟﻠﻐﺔ‬ ‫إضاف ً‬
‫ﻟﻠﻐﺔة‬ ‫اﻟﺼﺮﻓﻲ‬
‫اﻟﺼﺮﻓﻲ‬ ‫وتعقيدها‪،‬‬
‫اﻟﺼﺮﻓﻲ‬ ‫اﻟﺘﺤﻠﯿﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‬‫اﻟﺘﺤﻠﯿﻞ‬ ‫التحليل‬ ‫قواعدﻗﻮاﻋﺪ‬
‫ﻗﻮاﻋﺪ‬
‫ﻗﻮاﻋﺪ‬ ‫ﺑﺒﺮﻣﺠﺔ‬
‫ﺑﺒﺮﻣﺠﺔ‬‫ﺑﺒﺮﻣﺠﺔ‬ ‫كثرة‬ ‫مهها‬
‫اﻟﻤﻄﻮرون‬
‫اﻟﻤﻄﻮرون‬‫اﻟﻤﻄﻮرون‬ ‫ﯾﻘﻮممن أ ِّ‬ ‫كثرية‪،‬‬
‫ﯾﻘﻮم‬ ‫اﻟﺼﺮﻓﻲ‪،‬‬
‫اﻟﺼﺮﻓﻲ‪،‬ﯾﻘﻮم‬ ‫صعوبات‬
‫اﻟﺼﺮﻓﻲ‪،‬‬ ‫الطريقة‬
‫اﻟﺘﺤﻠﯿﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‬
‫سبيل‬
‫وﺗﻜﻮن‬
‫وﺗﻜﻮن‬ ‫وﺗﻜﻮن‬‫ﻛﺎﻣﻠﺔ‪،‬فعىل‬ ‫خاصة‪.‬‬
‫ﻛﺎﻣﻠﺔ‪،‬‬ ‫اﻟﻨﺤﻮ َّ‬
‫ﻛﺎﻣﻠﺔ‪،‬‬ ‫اﻟﻨﺤﻮ‬ ‫اﻟﻨﺤﻮ‬‫عاجلة‬ ‫ﻗﻮاﻋﺪ ُم‬
‫ﻗﻮاﻋﺪ‬
‫ﻗﻮاﻋﺪ‬ ‫ﺒﺮﻣﺞ إىل‬ ‫حتتاج‬
‫ﺒﺮﻣﺞ‬
‫ﺒﺮﻣﺞ‬ ‫التيﺗُﺗُ‬
‫ﺣﯿﺚُ‬
‫ﺣﯿﺚﺗ‬ ‫ﺣﯿﺚ‬ ‫األسامء‬‫اﻟﺘﺮﻛﯿﺒﻲ‪،‬‬
‫اﻟﺘﺮﻛﯿﺒﻲ‪،‬‬ ‫اﻟﺘﺤﻠﯿﻞبعض‬
‫اﻟﺘﺮﻛﯿﺒﻲ‪،‬‬ ‫مثل‬
‫اﻟﺘﺤﻠﯿﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‬ ‫اللغة‬
‫ﻓﻲ‬‫ﻓﻲﻓﻲ‬ ‫اﻟﺤﺎليف‬ ‫كثرية‬
‫اﻟﺤﺎل‬‫ﻛﺬﻟﻚاﻟﺤﺎل‬ ‫حاالت‬
‫ﻛﺬﻟﻚ‬
‫ﻛﺬﻟﻚ‬
‫‪Morpho‬‬
‫ﺻﻌﻮﺑﺎت‬
‫ﺻﻌﻮﺑﺎت‬ ‫ﺻﻌﻮﺑﺎت‬ ‫اﻟﻄﺮﯾﻘﺔ(‪-‬‬
‫الرصيف‪-‬الرتكيبي‬
‫اﻟﻄﺮﯾﻘﺔ‬
‫ھﺬهاﻟﻄﺮﯾﻘﺔ‬ ‫ھﺬه‬ ‫وﺗﻮاﺟﮫ‬
‫وﺗﻮاﺟﮫھﺬه‬ ‫وﺗﻮاﺟﮫ‬ ‫التحليل‬
‫اﻟﻤﻌﺎﻟﺠﺔ‪..‬‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬
‫اﻟﻤﻌﺎﻟﺠﺔ‪.‬‬ ‫حتت‬ ‫يندرجﻟﱠﻟﺪاﺔﻟ‬
‫ﻟﺪاﱠﻟﱠﺔﺔ‬ ‫ﻜﻮﻜﻜ ﱢنﻮ ﱢﻮننﻟﺪا‬ ‫التحليل‬
‫ھﻲ ُاﻤﻟاﻟ ُﻤ ُﱢﻤ‬‫ھﻲﻟ‬ ‫من‬
‫اﻟﻘﻮاﻋﺪ‬
‫اﻟﻘﻮاﻋﺪھﻲ ا‬ ‫اﻟﻘﻮاﻋﺪ‬ ‫نوع‬ ‫ھﺬه‬ ‫ھﺬه‬ ‫هنالك‬
‫ھﺬه‬ ‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫املثال‪،‬‬
‫الكلمة‬ ‫بتقطيع‬ ‫يعرف‬ ‫إﻟﻰإﻟﻰما‬ ‫التحليل‬ ‫هذا‬ ‫املهام يف‬ ‫وإحدى‬ ‫)‪.‬‬ ‫‪syntactic‬‬ ‫‪Analysis‬‬
‫ﻓﻲﻓﻲ‬
‫ﻓﻲ‬ ‫ﻛﺜﯿﺮة‬
‫ﻛﺜﯿﺮة‬
‫ﻛﺜﯿﺮة‬ ‫ﺣﺎﻻت‬
‫ﺣﺎﻻت‬‫ﺣﺎﻻت‬ ‫وﺟﻮد‬‫وﺟﻮد‬ ‫وﺟﻮد‬ ‫إﺿﺎﻓﺔًﺔً إﻟﻰ‬ ‫إﺿﺎﻓﺔً‬
‫إﺿﺎﻓ‬ ‫وﺗﻌﻘﯿﺪھﺎ‪،‬‬
‫وﺗﻌﻘﯿﺪھﺎ‪،‬‬
‫وﺗﻌﻘﯿﺪھﺎ‪،‬‬ ‫اﻟﺘﺤﻠﯿﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‬ ‫اﻟﺘﺤﻠﯿﻞ‬ ‫ﻗﻮاﻋﺪ‬
‫ﻗﻮاﻋﺪ‬ ‫ﻗﻮاﻋﺪ‬ ‫ﻛﺜﺮة‬
‫ﻛﺜﺮة‬ ‫ﻛﺜﺮة‬ ‫ﮭﺎ ﱢﻤﮭﺎﮭﺎ‬‫أھ ﱢﻤأھأھ ﱢﻤ‬ ‫ﻣﻦ‬‫ﻣﻦﻣﻦ‬ ‫ﻛﺜﯿﺮة‪،‬‬
‫ﻛﺜﯿﺮة‪،‬‬‫ﻛﺜﯿﺮة‪،‬‬
‫(‪ ،)Word Segmentation‬وفيه تُفصل األجزاء التي هلا دور تركيبي‪ ،‬أي أهنا تأخذ أحد‬
‫ھﻨﺎﻟﻚ‬
‫ھﻨﺎﻟﻚ‬ ‫ھﻨﺎﻟﻚ‬ ‫اﻟﻤﺜﺎل‪،‬‬
‫اﻟﻤﺜﺎل‪،‬‬
‫اﻟﻤﺜﺎل‪،‬‬ ‫ﺳﺒﯿﻞ‬
‫ﺳﺒﯿﻞ‬ ‫ﺳﺒﯿﻞ‬ ‫ﻓﻌﻠﻰ‬
‫ﻓﻌﻠﻰ‬ ‫ﻓﻌﻠﻰ‬ ‫ﺻﱠﺔ‪.‬ﱠﺔ‪.‬‬‫ﺻﺻ‬
‫ﱠﺔ‪.‬‬ ‫ﺧﺎﺧﺎ‬
‫ﺧﺎ‬ ‫ﻌﺎﻟﺠﺔ‬
‫ﻌﺎﻟﺠﺔ‬
‫ﻌﺎﻟﺠﺔ‬ ‫إﻟﻰ ُﻣ ُﻣ‬
‫إﻟﻰإﻟﻰ ُﻣ‬ ‫ﺗﺤﺘﺎج‬
‫ﺗﺤﺘﺎج‬ ‫ﺗﺤﺘﺎج‬ ‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫اﻟﺘﻲ‬ ‫اﻷﺳﻤﺎء‬
‫اﻷﺳﻤﺎء‬
‫اﻷﺳﻤﺎء‬ ‫ﺑﻌﺾ‬‫ﺑﻌﺾ‬ ‫ﺑﻌﺾ‬ ‫ﻣﺜﻞ‬
‫ﻣﺜﻞ‬ ‫ﻣﺜﻞ‬ ‫اﻟﻠﻐﺔ‬
‫اﻟﻠﻐﺔ‬
‫اﻟﻠﻐﺔ‬
‫عم قبلها أو بعدها‪ .‬مثال ذلك كلمة «ويذهبون»‪.‬‬ ‫َّ‬ ‫)‪،‬‬ ‫‪Part‬‬ ‫‪of‬‬ ‫‪Speech‬‬ ‫(‬ ‫الكالم‬ ‫أجزاء‬
‫������‬
‫������‬ ‫������� ������‬ ‫�������‬ ‫ﺗﺤﺖ �������‬ ‫ﺗﺤﺖ‬ ‫ﯾﻨﺪرج ﺗﺤﺖ‬ ‫ﯾﻨﺪرج‬ ‫اﻟﺘﺤﻠﯿﻞ ﯾﻨﺪرج‬ ‫اﻟﺘﺤﻠﯿﻞ‬
‫ﻣﻦ‪ -‬اﻟﺘﺤﻠﯿﻞ‬ ‫ﻧﻮع ﻣﻦ‪-‬ﻣﻦ‪-‬‬ ‫ﻧﻮع‬ ‫ﻧﻮع‬
‫فإنه يف هذه الكلمة تفصل الواو يف بداية الكلمة «و» والتي تأخذ أحد أجزاء الكالم‬
‫ھﺬاھﺬا‬
‫ھﺬا‬ ‫ﻓﻲﻓﻲ‬
‫ﻓﻲ‬ ‫اﻟﻤﮭﺎم‬
‫اﻟﻤﮭﺎم‬ ‫اﻟﻤﮭﺎم‬ ‫إﺣﺪى‬
‫إﺣﺪى‬ ‫إﺣﺪى‬ ‫‪.(Morpho-syntactic‬و(‪ .‬و‬
‫‪Morpho-syntactic‬‬
‫(‪.‬‬ ‫‪Morpho-syntactic‬‬ ‫‪Analysis‬‬
‫‪Analysis‬‬ ‫��������)‬
‫�������� )‬
‫��������‬
‫والتي‬ ‫الكلمة‬ ‫هناية‬ ‫«ون»ويف‬ ‫وكذلك تفصل الواو والنون‬ ‫‪Analysis‬‬ ‫عط)ًفا)‪،‬‬ ‫(وهو هنا رابط كوهنا‬
‫‪،(،(Word‬‬
‫تفصل‬ ‫‪Word‬‬
‫(‪،‬‬ ‫‪Word‬‬ ‫‪Segmentation‬‬
‫‪Segmentation‬‬
‫‪Segmentation‬بينام ال‬
‫كفاعل)‪،‬‬ ‫بحكم))عملها‬ ‫������)‬
‫������‬‫������‬
‫(وهو هنا اسم‬ ‫������‬
‫������‬
‫������‬ ‫ﯾﻌﺮفأجزاء الكالم‬ ‫ﯾﻌﺮف‬
‫من‬ ‫ﯾﻌﺮف‬ ‫جز ًءا‬ ‫اﻟﺘﺤﻠﯿﻞاﻣﺎﻣﺎﻣﺎ‬
‫اﻟﺘﺤﻠﯿﻞ‬
‫أيض‬‫اﻟﺘﺤﻠﯿﻞ ً‬
‫تأخذ‬
‫‪Part‬‬
‫عىل‬
‫‪Part‬‬ ‫‪Part‬‬ ‫اﻟﻜﻼم ))‬
‫الكالم‪،‬‬ ‫اﻟﻜﻼم)‬ ‫أجزاء‬
‫اﻟﻜﻼم‬ ‫أﺟﺰاء‬
‫أﺟﺰاء‬ ‫أﺟﺰاء‬ ‫أﺣﺪمن‬ ‫أﺣﺪ‬
‫جزء‬‫أﺣﺪ‬ ‫ﺗﺄﺧﺬ‬
‫ﺗﺄﺧﺬ‬ ‫هلا‬
‫ﺗﺄﺧﺬ‬ ‫أﻧﮭﺎ‬
‫وليس‬
‫أﻧﮭﺎ‬ ‫أﻧﮭﺎ‬‫أيأي‬
‫أي‬ ‫ﺗﺮﻛﯿﺒﻲ‪،‬‬
‫تركيبي‬ ‫ﺗﺮﻛﯿﺒﻲ‪،‬‬
‫ﺗﺮﻛﯿﺒﻲ‪،‬‬ ‫دور‬ ‫دور‬
‫دور‬ ‫ﻟﮭﺎهلا‬
‫دور‬ ‫ﻟﮭﺎ‬
‫ليس‬ ‫ﻟﮭﺎ‬ ‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫ألنه‬
‫اﻟﺘﻲ‬ ‫اﻷﺟﺰاء‬
‫اﻷﺟﺰاء‬ ‫«يذهبـ»‬
‫اﻷﺟﺰاء‬ ‫ﻔﺼﻞ‬
‫ﻔﺼﻞ‬ ‫وﻓﯿﮫ ﺗُ‬
‫«يـ»ﺗُ يف‬
‫ﻔﺼﻞ‬ ‫وﻓﯿﮫ ﺗُ‬
‫وﻓﯿﮫ‬ ‫الياء‬
‫ﺗﺄﺧﺬ أن‬ ‫مالحظة‬
‫ﺗﺄﺧﺬ‬ ‫ھﻮأنأن‬
‫ﺗﺄﺧﺬ‬ ‫ھﻮھﻮأن‬ ‫يمكن‬
‫اﻟﻤﮭﻢ‬
‫اﻟﻤﮭﻢ‬
‫اﻟﻤﮭﻢ‬ ‫ذﻟﻚ‪.‬‬
‫ذﻟﻚ‪.‬‬ ‫اللغوية‪.‬‬
‫ذﻟﻚ‪.‬‬ ‫ﻏﯿﺮ‬
‫ﻏﯿﺮ‬ ‫ﻏﯿﺮ‬‫ﻣﻨﻄﻘﯿﺔأوأو‬ ‫البيانات‬
‫ﻣﻨﻄﻘﯿﺔأو‬
‫ﻣﻨﻄﻘﯿﺔ‬ ‫داﻟﺔداﻟﺔ‬
‫داﻟﺔ‬ ‫احتاد‬
‫ﺗﻜﻮن‬
‫ﺗﻜﻮن‬ ‫ﺗﻜﻮن‬ ‫لدىﻓﻘﺪ‬
‫ﻓﻘﺪ‬ ‫ﺎ(‪ً .‬ﻣﺎ(‪.‬‬
‫ﻓﻘﺪ‬
‫ﺎ(‪.‬‬ ‫أرﻗﺎ ًﻣ‬
‫أرﻗﺎ‬‫املعتمدة‬
‫أرﻗﺎ ًﻣ‬‫)ﺗﻌﺎﻟﺞ‬
‫)ﺗﻌﺎﻟﺞ‬ ‫)ﺗﻌﺎﻟﺞ‬ ‫الكالم‬
‫ﻛﻤﯿﺔ‬
‫ﻛﻤﯿﺔ‬ ‫ﻛﻤﯿﺔ‬‫اﻟﺪاﻟﺔ‬
‫اﻟﺪاﻟﺔ‬ ‫أجزاء‬
‫ﺗﻜﻮن‬
‫اﻟﺪاﻟﺔ‬
‫ﺗﻜﻮن‬ ‫ﺗﻜﻮن‬ ‫قائمةأنأن‬ ‫ﺷﺮطﺎأن‬
‫ﺷﺮطﺎ‬ ‫ﺷﺮطﺎ‬ ‫ﻟﯿﺲﻟﯿﺲيف‬
‫ﻟﯿﺲ‬ ‫األقل‬
‫‪11 1‬‬
‫ﻓﻘﻂ‪.‬‬
‫ﻓﻘﻂ‪.‬‬ ‫واﺣﺪ‬
‫ﻓﻘﻂ‪.‬‬
‫واﺣﺪ‬ ‫واﺣﺪ‬ ‫ﻣﺨﺮج‬
‫ﻣﺨﺮج‬‫ﻣﺨﺮج‬‫إﻟﻰإﻟﻰ‬
‫إﻟﻰ‬ ‫ﻣﺪﺧﻞ‬
‫ﻣﺪﺧﻞ‬
‫ﻣﺪﺧﻞ‬ ‫ﻛﻞ‬‫ﻛﻞﻛﻞ‬‫ﺗﺤﻮل‬ ‫وھﻲأنأن‬
‫ﺗﺤﻮل‬
‫ﺗﺤﻮل‬ ‫وھﻲأن‬‫وھﻲ‬ ‫اﻟﺪاﻟﺔ‬ ‫ﺗﻌﺮﯾﻒ‬
‫اﻟﺪاﻟﺔ‬
‫اﻟﺪاﻟﺔ‬ ‫ﺗﻌﺮﯾﻒ‬
‫ﺗﻌﺮﯾﻒ‬
‫ﺑﯿﻨﻤﺎ‬
‫ﺑﯿﻨﻤﺎ‬ ‫ًﺎ(‪،‬ﮭًﺎ(‪،‬‬
‫ﺑﯿﻨﻤﺎ‬
‫ًﺎ(‪،‬‬ ‫ﻣﺘﺠﮭ‬
‫ﻣﺘﺠ‬ ‫)ﻣﺠﻤﻮﻋﺔأوأو‬
‫ﻣﺘﺠﮭ‬ ‫)ﻣﺠﻤﻮﻋﺔأو‬ ‫اﻟﻘﯿﻢ‬
‫)ﻣﺠﻤﻮﻋﺔ‬ ‫ﻣﻦﻣﻦ‬
‫اﻟﻘﯿﻢ‬
‫اﻟﻘﯿﻢ‬ ‫ﻣﻦ‬ ‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬ ‫ُﻤﺜﻞُﻤﺜﻞ‬
‫ُﻤﺜﻞ‬ ‫ﻟﻤﺘﻐﯿﺮﯾ ﯾ‬
‫ﻟﻤﺘﻐﯿﺮ‬ ‫اﻟﻌﺮﯾﺾ‬
‫ﻟﻤﺘﻐﯿﺮ ﯾ‬
‫اﻟﻌﺮﯾﺾ‬‫اﻟﻌﺮﯾﺾ‬ ‫اﻹﻧﺠﻠﯿﺰي‬
‫اﻹﻧﺠﻠﯿﺰي‬
‫اﻹﻧﺠﻠﯿﺰي‬ ‫ﺎﻟﺤﺮف‬
‫ﺎﻟﺤﺮف‬
‫ﺎﻟﺤﺮف‬ ‫داﺋﻤﺎﺑ ﺑ‬
‫داﺋﻤﺎ‬ ‫ﺳﻨﺸﯿﺮ‬
‫داﺋﻤﺎ ﺑ‬
‫ﺳﻨﺸﯿﺮ‬ ‫‪22 2‬‬
‫ﺳﻨﺸﯿﺮ‬
‫تكون دالة منطقية أو غري ذلك‪ .‬املهم هو أن تأخذ تعريف الدالة‬ ‫فقد‬
‫واﺣﺪة‪.‬‬
‫واﺣﺪة‪.‬‬ ‫ا)‪.‬‬‫م‬
‫ﻗﯿﻤﺔ‬ ‫أرقا‬
‫ﻗﯿﻤﺔ ًﻗﯿﻤﺔ‬
‫واﺣﺪة‪.‬‬ ‫(تعالج‬
‫ﯾﺄﺧﺬ‬ ‫ﻣﺘﻐﯿﺮ‬
‫ﯾﺄﺧﺬﯾﺄﺧﺬ‬ ‫كمية‬
‫ﻣﺘﻐﯿﺮ‬
‫ﻣﺘﻐﯿﺮ‬ ‫الدالة‬
‫إﻟﻰ‬ ‫تكون‬
‫اﻟﻌﺎدي‬
‫إﻟﻰإﻟﻰ‬ ‫اﻟﻌﺎدي‬
‫اﻟﻌﺎدي‬ ‫أن‬
‫ﺑﺎﻟﺤﺮف‬‫رشطا‬
‫ﺑﺎﻟﺤﺮف‬
‫ﺑﺎﻟﺤﺮف‬ ‫ليس‬
‫ﺳﻨﺸﯿﺮ‬ ‫‪-1‬‬
‫ﺳﻨﺸﯿﺮ‬
‫ﺳﻨﺸﯿﺮ‬
‫‪2727‬‬ ‫وهي أن حتول كل مدخل إىل خمرج واحد فقط‪.‬‬
‫‪27‬‬
‫متجها)‪ ،‬بينام سنشري باحلرف‬
‫ً‬ ‫‪ -2‬سنشري دائام باحلرف اإلنجليزي العريض ملتغري ُيمثل جمموعة من القيم (جمموعة أو‬
‫العادي إىل متغري يأخذ قيمة واحدة‪.‬‬

‫‪-28-‬‬
‫هذا التحليل خمتلف عن التحليل الرصيف الذي هيدف الستخراج جذر الكلمة‪ ،‬إذ إنه‬
‫أيضا‪ .‬أما يف هذا التحليل فيكون الناتج «و‪- -‬يذهب‪-‬‬ ‫يف ذلك التحليل تفصل الياء ً‬
‫ب أن قواعد التحليل‬ ‫وه ْ‬ ‫‪-‬ون»‪ُ .‬خ ْذ عىل سبيل املثال أيض ًا كلمة «واهم»‪ ،‬من َ‬
‫الو ْهم‪َ ،‬‬
‫عم بعدها‪ ،‬فإن هذه القاعدة لن تستطيع التفريق‬ ‫ُبرجمت لفصل الواو يف بداية الكلمة َّ‬
‫بني الواو التي من أصل الكلمة وبني واو العطف‪ ،‬فتقوم بفصل الواو يف «واهم» لتُنتج‬
‫«و‪- -‬اهم»‪ .‬هذا يف الصفات واألحوال وأسامء األجناس‪ ،‬واألمر أكثر تعقيدً ا يف أسامء‬
‫األعالم (‪ ،)Named Entities‬وهي أسامء األشخاص واألماكن وا ُملن َّظامت‪ .‬فلو وردت‬
‫أيضا وفق قاعدة فصل‬ ‫أيضا كلمة «الوليد» كاسم شخص يف أحد السياقات‪ ،‬فقد ُتلل ً‬
‫ُفصل هنا كون الكلمة‬ ‫األلف والالم «الـ» لتكون «الـ‪- -‬وليد»‪ ،‬بينام من ا ُملفرتض َّأل ت َ‬
‫اسم َع َلم وليست صفة‪ .‬لذا فإننا يف برجمة قواعد املعاجلة نحتاج أن نأخذ‬ ‫يف هذا السياق َ‬
‫حلسبان‪ ،‬وهذا أمر صعب جدًّ ا لعدم حمدودية الكلامت‪ ،‬والتي‬ ‫كل هذه االعتبارات يف ا ُ‬
‫تعترب المنتهية‪ ،‬إذ تدخل للغة كلامت جديدة بشكل مستمر‪ ،‬والختالف السياقات‬
‫التي تُستخدم فيها الكلمة الواحدة‪ ،‬والتي ربام خيتلف حتليل الكلمة بنا ًء عليها‪ .‬ومن‬
‫مكن برجمتُها يف كثري من التطبيقات‪،‬‬ ‫أيضا عدم وجود قواعد حتليل معروفة ي ِ‬ ‫الصعوبات ً‬
‫ُ‬
‫مثل‪ ،‬ال يوجد قواعد ثابتة معروفة ُمتفق عليها‬ ‫كثري من تطبيقات حتليل اخلطاب ً‬ ‫ففي ٍ‬
‫يمكن برجمتها لتُمثل دا َّلة التحليل‪ ،‬فال يوجد قواعد ثابتة للتلخيص أو قراءة أسلوب‬
‫الكتابة للتعرف عىل ا ُملؤلف‪.‬‬

‫‪ 2.3‬تعلم اآللة‬
‫كثري من املطورين‬
‫يتوجه ٌ‬
‫ولتجاوز الصعوبات التي تواجه استخدام األنظمة اخلبرية‪َّ ،‬‬
‫والباحثني إىل استخدام خوارزميات تع ُّلم اآللة (‪ ،)Machine Learning‬والتي هتدف‬
‫إىل ُماكاة التعلم البرشي‪ .‬ففي حالة معاجلة اللغة‪ ،‬فإن هذه اخلوارزميات ُتاكي عمليات‬
‫تعلم اللغة التي أرشنا إليها يف بداية هذا الفصل‪ ،‬إذ هتدف إىل استقراء ِّ‬
‫دوال معاجلة‬
‫مثل‪ ،‬تعطى هذه‬ ‫اللغة من خالل األمثلة التي تعطى هلا‪ .‬ففي حالة التحليل الرصيف ً‬
‫اخلوارزميات جمموعة من الكلامت ا ُملح َّللة رصف ًّيا‪ ،‬لتقوم هذه اخلوارزميات باستقراء‬ ‫ﺠﺔ اﻟﻠﻐﺔ‬

‫ﻼت‪2‬يستخدمها اإلنسان‪ .‬ونقول هنا «حتاكي» ألننا‬‫الرصيف َﺧالتي‬


‫التحليلﻣﻦ اﻟ ُﻤﺪ‬
‫ﻣﺠﻤﻮﻋﺔ‬ ‫دالة‪ 𝑓𝑓(((1‬ﺗﺄﺧﺬ‬
‫حتاكي دالة‬ ‫ﻟﻤﻌﺎﻟﺠﺔ ﻓﻲ ﻛﻮﻧﮭﺎ داﻟﺔ‬
‫ﻟﺘﻘﻮم ﺑﺒﻌﺾ اﻟﻌﻤﻠﯿﺎت ﻋﻠﯿﮭﺎ وﺗﻌﯿﺪ ﻗﯿﻤﺔ 𝒚𝒚 ﯾﻤﻜﻦ اﺳﺘﺨﺪاﻣﮭﺎ‬
‫‪ -1‬اإلشارة فوق الدالة ترمز إىل أهنا دالة ُمقدرة‪ ،‬وليست هي الدالة احلقيقة‪.‬‬
‫ﺑﺨﺼﻮص اﻟﻘﯿﻢ اﻟ ُﻤﺪ َﺧﻠﺔ‪ .‬ﻓﻔﻲ ﻣﻌﺎﻟﺠﺔ اﻟﻠﻐﺔ‪ ،‬ﯾﻤﻜﻦ أن ﺗﻜﻮن‬
‫ﺎ‪ ،‬ﻓﻲ ﺣﺎﻟﺔ ﻣﻌﺎﻟﺠﺔ اﻟﺼﻮت‪ ،‬أو أﺣ ُﺮﻓًﺎ‪ ،‬ﻓﻲ ﺣﺎﻟﺔ ﻣﻌﺎﻟﺠﺔ اﻟﻜﻠﻤﺔ‪،‬‬
‫‪-29-‬‬
‫ﺔ ﻣﻌﺎﻟﺠﺔ اﻟﻨﺺ‪ ،‬وﯾﺒﻘﻰ اﻟﺴﺆال ھﻨﺎ ھﻮ ﻛﯿﻒ ﯾُﻤ ِﻜﻦ اﻟﻮﺻﻮ ُل ﻟﮭﺬه‬
‫ال نعرف عىل سبيل اليقني كيف يقوم اإلنسان هبذه العمليات‪ .‬وللحصول عىل هذه‬
‫سمى البحث والتقييم (‪.)Search and Score‬‬ ‫ٍ‬
‫الدالة‪ ،‬تقوم اخلوارزميات عاد ًة بإجراء ُي َّ‬
‫ففي عملية البحث‪ ،‬تقوم اخلوارزمية بالبحث يف فضاء ُيشار إليه بفضاء البحث (‪Search‬‬
‫‪ ،)Space‬والذي حيتوي جمموعة من الدوال‪ ،‬عن دالة يمكن استخدامها‪ ،‬وأثناء االنتقال‬
‫بني الدوال يف هذا الفضاء‪ ،‬تُقيم كل دالة ُيوصل إليها لفحص كفاءهتا‪ .‬يوجد العديد من‬
‫الطرق املستخدمة يف تقييم الدوال‪ ،‬والتي ال تتسع املساحة هنا لرشحها‪ ،‬لكن العامل‬
‫املشرتك هلذه الطرق هو األخذ يف االعتبار كمية األخطاء يف النتائج التي تعطيها الدالة‪.‬‬
‫لذا هتدف عملية البحث والتقييم إىل الوصول لدالة تعطي الكمية األقل من األخطاء‬
‫عىل اللغة مطل ًقا‪ .‬ولكن املشكل هنا يكمن يف صعوبة إثبات أن دالة ما هلا الكمية األقل‬
‫األقل من األخطاء عىل‬ ‫َّ‬ ‫من األخطاء مطل ًقا‪ .‬إذا إنه حتى وإن أعطت دالة ما الكمية‬
‫ٍ‬
‫جمموعة من الظواهر‪ ،‬فإهنا قد ال تعطي الكمية األقل من األخطاء عىل جمموعة أخرى‪.‬‬
‫وحيث إن إثبات أن دالة ما تعطي الكمية األقل من األخطاء مطل ًقا يتطلب جتريب مجيع‬
‫المنته من الظواهر‪.‬‬ ‫ٍ‬ ‫الدوال وإظهار نتائجها عىل اللغة كاملة‪ ،‬والتي حتتوي عىل عدد‬
‫المنته من الدوال مع تقييم كل دالة يف‬ ‫ٍ‬ ‫وهــذا يتطلب البحث والتقييم يف فضاء مطلق‬
‫هذا الفضاء عىل اللغة كاملة‪ ،‬وهذه عملية غري منضبطة وغري قابلة للتطبيق‪ .‬لذا فإنه يف‬
‫عملية البـــحث والتقييم‪ُ ،‬يرص فضـــاء البحث وذلك بوضع افرتاضات مسبـــقة‬
‫عرف باالنحياز‬ ‫(‪ )Assumptions‬عن نوعيــة الدالة وشكلـــها وصيغتها‪ ،‬وهذا ما ُي َ‬
‫االستقرائي (‪ )Inductive Bias‬أو انحياز التعلم (‪Learning Bias) (Mitchell,‬‬
‫‪ .)1997‬مع العلم أنه حتى بعد وضع هذه االفرتاضات‪ ،‬فإن فضاء البحث قد يبقى‬
‫المنته ًيا ولكنه فضاء فرعي من الفضاء املطلق ومنضبط وحمصور يف دوال ُم َع َّر َف ِة‪ً .‬‬
‫وبدل‬
‫من البحث عن الدالة التي تعطي العدد األقل من األخطاء مطل ًقا‪ُ ،‬يبحث عن دالة‬
‫قليل من األخطاء‪ ،‬ال يتجاوز حدًّ ا ُمع َّينًا‪ ،‬عىل جمموعة كبرية من الظواهر‬ ‫تعطي عد ًدا ً‬
‫اللغوية‪ .‬واالختالف يف طرق تقييم الدوال يرجع إىل االختالف يف كيفية حتديد هذا‬
‫احلدِّ ‪ ،‬ويف كيفية استخدام عدد األخطاء يف تقييم الدالة‪ .‬لذا فإن استخدام االنحياز‬
‫االستقرائي هو ما ُيفرس وجود عدد كبري من خوارزميات التعلم‪.‬‬

‫‪-30-‬‬
‫اﻷﺣﺮفاﻷﺣﺮف‬
‫خوارزمية‬ ‫اﻟﻄﺒﯿﻌﯿﺔ ﺗُﻤﺜﻞ‬
‫تصميم‬ ‫أردنا‬
‫ﻤﺜﻞ‬ ‫اﻻﻋﺪادلو‬ ‫اﻻﻋﺪاد ٍ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫بمثال(((‪.‬‬
‫اﻟﻄﺒﯿﻌﯿﺔ ﺗُ‬ ‫أرﻗﺎم ﻣﻦ‬
‫االستقرائي‬
‫ﻣﺠﻤﻮﻋﺔ‬ ‫ھﻲ‬ ‫اﻟﺪاﻟﺔ‬
‫االنحياز‬
‫ﻣﻦ‬ ‫أرﻗﺎم‬ ‫فكرة‬
‫ھﻲ‬ ‫إﻟﻰ‬ ‫ﺪﺧﻼت‬
‫هنا‬
‫اﻟﺪاﻟﺔ‬ ‫وضح‬
‫إﻟﻰ‬ ‫ﺪﺧﻼت‬ ‫• اﻟﻤ • ُ‬
‫وسأ اﻟ ُﻤ‬
‫• ُاﻟ ُﻤﺪﺧﻼت إﻟﻰ اﻟﺪاﻟﺔ ھﻲ أرﻗﺎم ﻣﻦ ﻣﺠﻤﻮﻋﺔ اﻻﻋﺪاد اﻟﻄﺒﯿﻌﯿﺔ ﺗُﻤﺜﻞ اﻷﺣﺮف‬
‫وضع‬ ‫بداي ًة‬
‫اﻟﻘﯿﻤﺔ‬ ‫ﻟﮫ‬ ‫فيمكن‬ ‫السابق‪،‬‬
‫واﻟﺤﺮف ﻟﮫ"ي"‬
‫اﻟﻘﯿﻤﺔ‬ ‫"ي"‬ ‫اجلزء‪1‬‬
‫واﻟﺤﺮف‬ ‫يفاﻟﻘﯿﻤﺔ‬ ‫رشحناها‬
‫ﻟﮫ ‪1‬‬ ‫اﻟﺤﺮفوالتي‬
‫اﻟﺤﺮفﻟﮫ "أ"‬
‫اﻟﻘﯿﻤﺔ‬ ‫"أ"‬ ‫تقطيعﯿًّﺎ‪،‬‬
‫الكلمة‪،‬أن‬
‫أن أي‬ ‫ﺗﺴﻠﺴﻠ‬ ‫ملهمة‬
‫دالة ﺗﺴﻠﺴﻠ‬
‫اﻟﮭﺠﺎﺋﯿﺔﯿًّﺎ‪ ،‬أي‬ ‫لتعلم‬
‫اﻟﮭﺠﺎﺋﯿﺔ‬
‫اﻟﮭﺠﺎﺋﯿﺔ ﺗﺴﻠﺴﻠﯿًّﺎ‪ ،‬أي أن اﻟﺤﺮف "أ" ﻟﮫ اﻟﻘﯿﻤﺔ ‪ 1‬واﻟﺤﺮف "ي" ﻟﮫ اﻟﻘﯿﻤﺔ‬
‫االفرتاضات التالية‪:‬‬
‫‪.28 .28‬‬
‫‪.28‬‬
‫األحرف‬ ‫اﻟﺤﺮف ُتثل‬
‫اﻟﺬي ﻧﺮﯾﺪ‬
‫ﻧﺮﯾﺪ‬ ‫االعدادُﻤﺜﻞ‬
‫الطبيعية‬
‫اﻟﺬي‬ ‫اﻟﺤﺮف‬ ‫إﺣﺪاھﺎ ﯾ‬ ‫ﻣﺪﺧﻼت‪،‬‬
‫جمموعةﯾُﻤﺜﻞ‬
‫إﺣﺪاھﺎ‬ ‫أرقامﺔ من‬
‫ﻣﺪﺧﻼت‪،‬‬‫اﻟﺪاﻟﺔﺔ ﺧﻤﺴ‬
‫هي‬ ‫إﻟﻰ‬
‫ﺪﺧﻼتاﻟﺪاﻟﺔ‬
‫الدالةﺧﻤﺴ‬ ‫• ﻋﺪدŸ•اﻟŸاﻤ ُملﻋﺪد اﻟ ُﻤ‬
‫دخالتإﻟﻰإىل‬
‫ﺪﺧﻼت‬
‫• ﻋﺪد ُاﻟ ُﻤﺪﺧﻼت إﻟﻰ اﻟﺪاﻟﺔ ﺧﻤﺴﺔ ﻣﺪﺧﻼت‪ ،‬إﺣﺪاھﺎ ﯾُﻤﺜﻞ اﻟﺤﺮف اﻟﺬي ﻧﺮﯾﺪ‬
‫‪.28‬‬ ‫القيمة‬
‫اﻷرﺑﻌﺔ‬ ‫واﻷﺣلهﺮُف‬
‫اﻷرﺑﻌﺔ‬ ‫«ي»‬ ‫واحلرف‬
‫ﻻ‪،‬ﺮُف‬
‫واﻷﺣ‬ ‫القيمةﺎأم‪1‬ﻻ‪،‬‬
‫ﺑﻌﺪه أم‬ ‫ﺑﻌﺪه ﱠﻤ‬ ‫لهﺎ‬
‫ُﻔﺼﻞ ﻋ‬‫ُﻔﺼﻞ«أ»ﯾﻋ ﱠﻤ‬
‫احلرفأن‬
‫ﯾﺠﺐ‬ ‫أن‬
‫ﻛﺎنأن ﯾ‬
‫ﯾﺠﺐ‬‫أي‬ ‫تسلسل ًّيﻣﺎا‪،‬‬
‫ﻛﺎنإذا‬ ‫ﺑﺸﺄﻧﮫ‬ ‫اهلجائية‬
‫ﻧﻘﺮرﻣﺎ إذا‬
‫أن ﻧﻘﺮرأنﺑﺸﺄﻧﮫ‬
‫أن ﻧﻘﺮر ﺑﺸﺄﻧﮫ ﻣﺎ إذا ﻛﺎن ﯾﺠﺐ أن ﯾُﻔﺼﻞ ﻋ ﱠﻤﺎ ﺑﻌﺪه أم ﻻ‪ ،‬واﻷﺣﺮُف اﻷرﺑﻌﺔ‬
‫ﻛﻠﻤﺔ‬
‫الذي نريد أن‬ ‫أﺧﺬﻧﺎ‬ ‫ﻓﻠﻮ‬
‫ﺑﻌﺪه‪.‬أﺧﺬﻧﺎ‬
‫احلرف ﻛﻠﻤﺔ‬ ‫اﻟﻠﺬان ﻓﻠﻮ‬
‫مثل‬ ‫ﺑﻌﺪه‪.‬ي‬
‫إحداها ُ‬ ‫واﻟﺤﺮﻓﺎن‬
‫مدخالت‪،‬‬
‫اﻟﻠﺬان‬ ‫مخسةﻗﺒﻠﮫ‪،‬‬
‫واﻟﺤﺮﻓﺎن‬ ‫اﻟﻠﺬان‬ ‫اﻟﺤﺮﻓﺎن‬
‫الدالةﻗﺒﻠﮫ‪،‬‬ ‫اﻟﺤﺮﻓﺎن إىل‬
‫اﻟﻠﺬان‬ ‫اﻷﺧﺮى ھﻲ‬
‫دخالت‬ ‫ھﻲ ُمل‬
‫اﻷﺧﺮىعدد ا‬ ‫ŸŸ‬
‫ﺑﻌﺪه‪ .‬ﻓﻠﻮ أﺧﺬﻧﺎ ﻛﻠﻤﺔ‬ ‫اﻷﺧﺮى ھﻲ اﻟﺤﺮﻓﺎن اﻟﻠﺬان ﻗﺒﻠﮫ‪ ،‬واﻟﺤﺮﻓﺎن اﻟﻠﺬان‬
‫األخرى‬ ‫اﻟﻤﺪﺧﻼت‬‫األربعة‬
‫اﻟﻤﺪﺧﻼت‬ ‫واألحرف‬
‫ﺳﺘﻜﻮن‬ ‫ﺳﺘﻜﻮن ُ‬ ‫"ب"‪،‬‬‫"ب"‪،‬أم ال‪،‬‬
‫بعده‬
‫اﻟﺤﺮف‬ ‫عم‬ ‫فصل‬
‫ﻣﻌﺎﻟﺠﺔ‬
‫اﻟﺤﺮف َّ‬ ‫ﻣﻌﺎﻟﺠﺔأن ُي‬
‫جيب‬ ‫إذاﻨﱠﺎ‬
‫ﻧﺮﯾﺪكانﻧﺮﯾﺪ‬ ‫بشأنه ماو ُﻛ‬ ‫نقرر و ُﻛﻨﱠ‬
‫"ﯾﺬھﺒﻮن"ﺎ‬ ‫"ﯾﺬھﺒﻮن"‬
‫"ﯾﺬھﺒﻮن" و ُﻛﻨﱠﺎ ﻧﺮﯾﺪ ﻣﻌﺎﻟﺠﺔ اﻟﺤﺮف "ب"‪ ،‬ﺳﺘﻜﻮن اﻟﻤﺪﺧﻼت‬
‫ﺗﺤﺖ ُكنَّا‬
‫«يذهبون» و‬
‫اﻟﺬي‬
‫اﻟﺤﺮفﺗﺤﺖ‬‫كلمة‬
‫أخذنا اﻟﺬي‬‫اﻟﺤﺮف‬‫فلوﻣﻤﺜﻞ‬ ‫ھﻮ‬ ‫بعده‪.‬‬
‫ﻣﻤﺜﻞ‬ ‫اللذانھﻮ‬
‫اﻷول‬ ‫واحلرفاناﻷول‬
‫اﻟﺮﻗﻢ‬ ‫اﻟﺮﻗﻢإن‬ ‫قبله‪،‬إنﺣﯿﺚ‬‫اللذان‪(2,‬‬
‫ﺣﯿﺚ‪،‬‬ ‫‪26,‬‬‫احلرفان‪،(2,9,‬‬‫‪26,‬‬‫)‪27,25‬‬ ‫هي‪9,‬‬ ‫)‪27,25‬‬
‫)‪ ،(2, 26, 9, 27,25‬ﺣﯿﺚ إن اﻟﺮﻗﻢ اﻷول ھﻮ ﻣﻤﺜﻞ اﻟﺤﺮف اﻟﺬي ﺗﺤﺖ‬
‫ﺑﻌﺪه إن‬‫اﻟﺬﯾﻦحيث‬‫واﻟﺤﺮﻓﯿﻦ‪، )2 ,‬‬
‫‪26 , 9 , 27‬‬ ‫(‪, 25‬ﻗﺒﻠﮫ‪،‬‬ ‫املدخالت‬
‫اﻟﺬﯾﻦ‬ ‫ستكونﯿﻦاﻟﺤﺮﻓ‬ ‫احلرف «ب»‪،‬‬ ‫معاجلة‬ ‫نريد‬
‫واﻟﺤﺮﻓﯿﻦ اﻟﺬﯾﻦ ﺑﻌﺪه‬ ‫اﻟﺬﯾﻦﯿﻦ ﻗﺒﻠﮫ‪،‬‬ ‫ﺗﻤﺜﻞ‬
‫اﻷﺧﺮىاﻟﺤﺮﻓ‬ ‫اﻷﺧﺮى ﺗﻤﺜﻞ‬ ‫واﻷرﻗﺎمواﻷرﻗﺎم‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‪،‬‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‪،‬‬
‫ﺑﻌﺪه‬ ‫اﻟﺬﯾﻦ‬ ‫واﻟﺤﺮﻓﯿﻦ‬ ‫ﻗﺒﻠﮫ‪،‬‬ ‫اﻟﺬﯾﻦ‬
‫األول هو ممثل احلرف الذي حتت املعاجلة‪ ،‬واألرقام األخرى متثل احلرفني‬ ‫ﯿﻦ‬ ‫اﻟﺤﺮﻓ‬ ‫ﺗﻤﺜﻞ‬ ‫اﻷﺧﺮى‬ ‫واﻷرﻗﺎم‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‪،‬‬
‫الرقم‬
‫ﺗﺴﻠﺴﻠﯿًّﺎ‪.‬ﺗﺴﻠﺴﻠﯿًّﺎ‪.‬‬
‫تسلسل ًّيا‪.‬‬ ‫الذين قبله‪ ،‬واحلرفني الذين بعده‬ ‫ﺗﺴﻠﺴﻠﯿًّﺎ‪.‬‬
‫ً‬
‫اﻟﺤﺮفاﻟﺤﺮف‬ ‫ﺑﻌﺪ ﻣﺎ ﺑﻌﺪ‬
‫ﻛﺎنإذاﻣﺎ ﻛﺎن‬ ‫إذا ‪،0‬‬ ‫ﺣﻘﯿﻘﯿّﺎﻣﻦ ‪0‬‬
‫أﻛﺒﺮ‪ ،‬ﻣﻦ‬ ‫ﺣﻘﯿﻘﯿًّدﺎًا أﻛﺒﺮ‬
‫ﯾﻜﻮن ﻋﺪ‬ ‫ﯾﻜﻮنأنﻋﺪدًا‬ ‫اﻟﺪاﻟﺔأنﯾﺠﺐ‬ ‫ﺨﺮجﯾﺠﺐ‬ ‫ﺨﺮج ُﻣاﻟﺪاﻟﺔ‬ ‫• ُﻣ •‬
‫ﺨﺮج اﻟﺪاﻟﺔ ﯾﺠﺐ أن ﯾﻜﻮن ﻋﺪدًا ﺣﻘﯿﻘﯿًّﺎ أﻛﺒﺮ ﻣﻦ ‪ ،0‬إذا ﻛﺎن ﻣﺎ ﺑﻌﺪ اﻟﺤﺮف‬
‫احلرف‬ ‫بعد ﯾﺠﺐ‬‫ﺑﻌﺪه‬ ‫كان ما‬
‫إذاﻛﺎن‬ ‫ﻣﻦ ‪،00‬‬ ‫أﺻﻐﺮ من‬
‫حقيقو ًّيا أكرب‬ ‫عد ًدا‬ ‫يكونأن‬ ‫الدالة جيب أن‬ ‫رج ﺗﺤﺖ‬ ‫• ُﻣŸ Ÿ ُم‬
‫ﺑﻌﺪهﻣﺎﯾﺠﺐ‬ ‫ﻛﺎنإذاﻣﺎ‬ ‫أﺻﻐﺮ ﻣﻦ ‪ 0‬إذا‬ ‫ُﻔﺼﻞ‪ ،‬أ‬ ‫ُﻔﺼﻞ‪،‬ﯾ أو‬ ‫ﯾﺠﺐ‬ ‫اﻟﻤﻌﺎﻟﺠﺔأن ﯾ‬
‫اﻟﻤﻌﺎﻟﺠﺔ ﯾﺠﺐ‬ ‫اﻟﺬي‬
‫اﻟﺬي ﺗﺤﺖ‬
‫جيبﻤﺔ َّأل‬ ‫ﯾﺠﺐ‬
‫ﺑﻌﺪهبعده‬ ‫ﻛﺎن ﻣﺎ‬
‫ﻔﺘﺮض ما‬
‫كان‬ ‫ﻣﻦإذا‪0‬اﻟﻤإذا‬
‫اﻟﺴﺎﺑﻘﺔ‪0 ،‬من‬
‫أﺻﻐﺮ ﻣﻦ‬
‫أصغر‬ ‫اﻟﻨﻘﻄﺔأو‬‫ُﻔﺼﻞ‪ ،‬أو‬
‫فصل‪،‬‬ ‫أن ُي‬ ‫جيبﯾ‬
‫ﯾﺠﺐ أن‬‫املعاجلة‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‬
‫حتت‬ ‫ﺗﺤﺖ‬
‫الذي‬ ‫اﻟﺬي‬
‫ﺗﻜﻮن ﻗﯿ‬ ‫أن‬ ‫ُ‬ ‫ﻓﻲ‬ ‫اﻟﺬي‬ ‫اﻟﻤﺜﺎل‬ ‫ﻓﻔﻲ‬ ‫ﻞ‪.‬‬ ‫ﺼ‬‫َ‬ ‫ُﻔ‬ ‫ﯾ‬ ‫أﻻ‬‫ﱠ‬
‫ﺼﻞ‪ .‬ﻓﻔﻲ اﻟﻤﺜﺎل اﻟﺬي ﻓﻲ اﻟﻨﻘﻄﺔ اﻟﺴﺎﺑﻘﺔ‪ ،‬ﻣﻦ اﻟ ُﻤﻔﺘﺮض أن ﺗﻜﻮن ﻗﯿﻤﺔ‬
‫السابقة‪،‬ﻣﻦمناﻟ ُاﻤ ُملﻔﺘﺮض‬ ‫ﱠأﻻ ﯾُﻔ َ‬
‫قيمة الدالة‬ ‫تكونﻗﯿﻤﺔ‬ ‫فرتضأنأنﺗﻜﻮن‬ ‫النقطةاﻟﺴﺎﺑﻘﺔ‪،‬‬ ‫الذيﻓﻲيفاﻟﻨﻘﻄﺔ‬ ‫املثالاﻟﺬي‬
‫اﻟﻤﺜﺎل‬ ‫فصﻞ‪.‬ل‪.‬ﻓﻔﻲففي‬ ‫ﺼَ‬ ‫ﱠأﻻ ﯾُﻔ ُي َ‬
‫اﻟﺒﺎء ﯾﺠﺐ أن‬
‫جيبأنأنأن يفصل‬ ‫ﺑﻌﺪﯾﺠﺐ‬ ‫ﺑﻌﺪ ﻣﺎاﻟﺒﺎء‬ ‫‪𝑓𝑓(2,‬ﻣﺎ ﻷن‬ ‫‪ 9,‬ﻷن‬ ‫‪𝑓𝑓(2,‬‬ ‫)‪26,9,27,25‬‬ ‫)‪26, 27,25‬‬ ‫> ‪>0‬‬ ‫ﻼت‬ ‫ﻼتﺪ َﺧ‪0‬‬ ‫اﻟﺪاﻟﺔ ﻟﻠ ُﻤ‬ ‫اﻟﺪاﻟﺔ ﻟﻠ ُﻤﺪ َﺧ‬
‫الباءﯾﺠﺐ‬‫بعداﻟﺒﺎء‬ ‫ألنﻣﺎماﺑﻌﺪ‬ ‫الت ‪ 𝑓𝑓(2, 9, 26, 27,25) > 0‬ﻷن‬ ‫دخﻼت‬ ‫للم ُﻤﺪ َ َﺧ‬
‫اﻟﺪاﻟﺔ ﻟﻠ ُ‬
‫اﻟﺤﺮف "ھـ"‬ ‫ﻌﺎﻟﺞ‬ ‫ُ‬ ‫ﻧ‬ ‫ﻛﻨﺎ‬ ‫إذا‬ ‫أﻣﺎ‬ ‫ون"‪،‬‬
‫أﻣﺎأماإذاإذاﻛﻨﺎ ﻧُﻌﺎﻟﺞ‬ ‫"ﯾﺬھﺐ‬ ‫اﻟﻜﻠﻤﺔ‬ ‫ﺗﻜﻮن‬ ‫ﺑﺤﯿﺚ‬ ‫ﯾﻔﺼﻞ‬
‫«هـ» فتكون‬ ‫احلرف "ھـ"‬‫ُعالجاﻟﺤﺮف‬
‫اﻟﺤﺮف "ھـ"‬
‫كنا ﻧُنﻌﺎﻟﺞ‬ ‫‪-‬ون»‪،‬أﻣﺎ إذا ﻛﻨﺎ‬ ‫«يذهب‪ -‬ون"‪،‬‬
‫الكلمة"ﯾﺬھﺐ ون"‪،‬‬ ‫تكون اﻟﻜﻠﻤﺔ‬
‫ﺗﻜﻮن اﻟﻜﻠﻤﺔ "ﯾﺬھﺐ‬
‫بحيث ﺗﻜﻮن‬ ‫ﯾﻔﺼﻞ ﺑﺤﯿﺚ‬
‫ﯾﻔﺼﻞ ﺑﺤﯿﺚ‬
‫«هـ»‬ ‫بعد ﻣﺎ‬
‫ما ﻷن‬‫ألن𝑓𝑓‪،‬ﻣﺎ‬
‫ﻷن‬‫‪26,‬‬‫‪،،𝑓𝑓28,9,‬‬
‫‪26, 28,9,‬‬ ‫‪2,27 2,27‬‬ ‫ﻛﺎﻟﺘﺎﻟﻲ ‪< 0‬‬ ‫ﻛﺎﻟﺘﺎﻟﻲ ‪< 0‬‬ ‫وﻗﯿﻤﺔ اﻟﺪاﻟﺔ‬
‫كالتايل‬ ‫اﻟﻤﺪﺧﻼت اﻟﺪاﻟﺔ‬
‫الدالة‬ ‫وقيمة‬
‫املدخالت وﻗﯿﻤﺔ‬ ‫اﻟﻤﺪﺧﻼت‬ ‫ﻓﺘﻜﻮن ﻓﺘﻜﻮن‬
‫ﻓﺘﻜﻮن اﻟﻤﺪﺧﻼت وﻗﯿﻤﺔ اﻟﺪاﻟﺔ ﻛﺎﻟﺘﺎﻟﻲ ‪ ،𝑓𝑓 26, 28,9, 2,27 < 0‬ﻷن ﻣﺎ‬
‫ﯾﻔﺼﻞ‪.‬ﯾﻔﺼﻞ‪.‬‬ ‫يفصل‪.‬أﻻ‬ ‫"ھـ"أﻻﯾﺠﺐ‬ ‫أال‬
‫جيبﯾﺠﺐ‬ ‫ﺑﻌﺪ‬ ‫ﺑﻌﺪ "ھـ"‬
‫ﺑﻌﺪ "ھـ" ﯾﺠﺐ أﻻ ﯾﻔﺼﻞ‪.‬‬
‫اﻟﺘﺎﻟﯿﺔ‪ :‬اﻟﺘﺎﻟﯿﺔ‪:‬‬
‫التالية‪:‬‬ ‫ﻟﺼﯿﻐﺔاﻟﺼﯿﻐﺔ‬
‫الصيغة‬ ‫أﻧﮭﺎ ﺗﺄﺧﺬ‬
‫تأخذ‬ ‫أهنا‬ ‫أﻧﮭﺎأي‬
‫أي‬
‫ﺗﺄﺧﺬ ا‬ ‫ﻄطﯿ َّيﱠﺔ‪،‬‬
‫ة‪،‬‬ ‫خأي‬ ‫ﱠﺔ‪َ َ ،‬ﺧ‬ ‫اﻟﺪاﻟﺔ‬
‫الدالة‬
‫اﻟﺪاﻟﺔ• Ÿ َﺧﻄﯿ‬
‫• Ÿ‬
‫أي أﻧﮭﺎ ﺗﺄﺧﺬ اﻟﺼﯿﻐﺔ اﻟﺘﺎﻟﯿﺔ‪:‬‬ ‫• اﻟﺪاﻟﺔ َﺧﻄﯿﱠﺔ‪،‬‬
‫𝒙𝒙 ∅ 𝑓𝑓‬ ‫𝒙𝒙 ‪𝑓𝑓 ∅=𝒙𝒙 𝒘𝒘 .=∅ 𝒘𝒘𝒙𝒙 . ∅+‬‬ ‫𝑏𝑏 ‪𝑏𝑏 +‬‬
‫𝑏𝑏 ‪𝑓𝑓 ∅ 𝒙𝒙 = 𝒘𝒘 . ∅ 𝒙𝒙 +‬‬
‫الظواهر‬‫ﻣﻦ ﻋﺪد‬ ‫من‪%‬عدد‬ ‫‪8 %8‬‬‫ﻋﻦ‬ ‫ﺗﺰﯾﺪنسبته عن‬ ‫ﯾﺠﺐ َّأل ﱠتزيد‬ ‫اﻟﺪاﻟﺔ جيب‬
‫التي تعطيها الدالة‬ ‫األخطاء اﻟﺘﻲ‬ ‫عدد‬ ‫• ﻋﺪدŸ• Ÿﻋﺪد‬
‫ﻣﻦ ﻋﺪد‬ ‫ﻧﺴﺒﺘﮫ‪%8‬‬ ‫ﺗﺰﯾﺪأﻻﻧﺴﺒﺘﮫ ﻋﻦ‬ ‫ﺗﻌﻄﯿﮭﺎ ﯾﺠﺐ ﱠ‬
‫أﻻ‬ ‫اﻟﺪاﻟﺔ‬ ‫ﺗﻌﻄﯿﮭﺎ‬ ‫اﻷﺧﻄﺎء‬
‫اﻟﺘﻲ‬ ‫اﻷﺧﻄﺎء‬
‫بمعاجلتها‪ .‬اﻟﺪاﻟﺔ ﯾﺠﺐ ﱠأﻻ ﺗﺰﯾﺪ ﻧﺴﺒﺘﮫ ﻋﻦ ‪ %8‬ﻣﻦ ﻋﺪد‬ ‫تقوماﻟﺘﻲ ﺗﻌﻄﯿﮭﺎ‬ ‫اﻷﺧﻄﺎء‬ ‫• ﻋﺪد التي‬
‫ﺑﻤﻌﺎﻟﺠﺘﮭﺎ‪.‬‬ ‫ﺗﻘﻮم‬ ‫اﻟﺘﻲ‬
‫اﻟﻈﻮاھﺮ اﻟﺘﻲ ﺗﻘﻮم ﺑﻤﻌﺎﻟﺠﺘﮭﺎ‪.‬‬ ‫اﻟﻈﻮاھﺮ‬
‫اﻟﻈﻮاھﺮ اﻟﺘﻲ ﺗﻘﻮم ﺑﻤﻌﺎﻟﺠﺘﮭﺎ‪.‬‬
‫‪31‬‬
‫‪31‬‬
‫‪31‬‬

‫‪ -1‬هذا املثال توضيحي فقط‪ ،‬وال هيدف إىل رشح الطريقة ا ُملثىل حلل مهمة تقطيع الكلمة‪.‬‬

‫‪-31-‬‬
‫ھﺬه اﻻﻓﺘﺮاﺿﺎت ھﻲ اﻻﻧﺤﯿﺎز اﻟﺬي وﺿﻌﻨﺎه‬
‫اﻟﺪواليف اﻟﺨﻄﯿﺔ ﻓﻘﻂ وﻓﻖ اﻟﻘﯿ‬ ‫ﻓﻀﺎءالبحث‬‫ﻓﻲحترص‬ ‫والتي‬ ‫اﻟﺒﺤﺚ‬ ‫ﺗﺤﺼﺮ‬
‫التعلم‬ ‫خلوارزمية‬ ‫وضعناهواﻟﺘﻲ‬ ‫ﻟﺨﻮارزﻣﯿﺔ اﻟﺘﻌﻠﻢ‬
‫وﺿﻌﻨﺎهاالنحياز الذي‬ ‫االفرتاضات هي‬ ‫اﻻﻧﺤﯿﺎز اﻟﺬي‬ ‫ﻻﻓﺘﺮاﺿﺎت ھﻲ هذه‬
‫ﺳﺘﻜﻮن ﻋﻤﻠﯿﺔ اﻟﺒﺤﺚ ُﻣﻘﺘ‬ ‫احلالة‪،‬‬ ‫ھﺬههذه‬
‫اﻟﺤﺎﻟﺔ‪،‬‬ ‫ﻓﻔﻲففي‬ ‫أعاله‪.‬‬ ‫أﻋﻼه‪.‬‬‫النقاط‬
‫ﻓﻲ يفاﻟﻨﻘﺎط‬ ‫وضحة‬ ‫ﺿ َّ‬
‫ﱠﺤﺔ‬ ‫األخرى ا ُمل‬
‫اﻷﺧﺮى اﻟ ُﻤﻮ‬ ‫اﻟﻘﯿﻮدالقيود‬‫فقط وفق‬ ‫اخلطيةوﻓﻖ‬ ‫الدوال ﻓﻘﻂ‬
‫فضاءاﻟﺨﻄﯿﺔ‬ ‫ﻓﻲ ﻓﻀﺎء اﻟﺪوال‬
‫وﺿﻌﻨﺎه‬ ‫اﻟﺬيًا ً‬ ‫جتعلھﻲ اﻻﻧﺤﯿﺎز‬ ‫ھﺬه اﻻﻓﺘﺮاﺿﺎت‬
‫ﻗﻠﯿﻼ ﻣﻦ‬ ‫الدالة ﺗﻌﻄﯿﻨﺎ ﻋﺪد‬
‫والتي ﺗﺠﻌﻞ اﻟﺪاﻟﺔ‬‫ﱢﺮات 𝒘𝒘وو 𝑏𝑏 واﻟﺘﻲ‬ ‫تغيات‬ ‫للم ُﻤﺘﻐ ِّﯿ‬
‫إﯾﺠﺎدقيمﻗﯿﻢ ﻟﻠ ُ‬‫ﻋﻠﻰإجياد‬ ‫ﻘﺘﺼﺮةةًعىل‬
‫اﻟﺒﺤﺚ ُم ُﻣقترص ً‬ ‫ﻋﻤﻠﯿﺔالبحث‬ ‫ﺳﺘﻜﻮنعملية‬‫ﻓﻔﻲ ھﺬه اﻟﺤﺎﻟﺔ‪،‬ستكون‬
‫ﻓﻀﺎءال‪.‬اﻟﺪوال اﻟﺨﻄﯿﺔ ﻓﻘﻂ وﻓﻖ اﻟﻘﯿ‬ ‫اﻟﺒﺤﺚ ﻓﻲ‬ ‫ﺗﺤﺼﺮ‬ ‫واﻟﺘﻲ‬ ‫حتديداﻟﺘﻌﻠﻢ‬ ‫ﻟﺨﻮارزﻣﯿﺔ‬ ‫وﺿﻌﻨﺎه‬ ‫عد ًداﻟﺬي‬ ‫اﻻﻧﺤﯿﺎز‬ ‫ﻓﺘﺮاﺿﺎت ھﻲ‬
‫يمكن ﯾﻤﻜﻦ ﻣﻼﺣﻈﺔ أن ﻓﻀ‬ ‫بعدهﻣﺎأمﺑﻌﺪه أم ﻻ‪.‬‬ ‫ﯾﺠﺐ ماﻓﺼﻞ‬ ‫اﻟﺬيفصل‬ ‫اﻟﺤﺮفجيب‬‫الذي‬ ‫احلرف‬
‫ﻓﻲ ﺗﺤﺪﯾﺪ‬ ‫األخطاء يف‬
‫اﻷﺧﻄﺎء‬ ‫ﻗﻠﯿﻼ ﻣﻦ‬ ‫قليل من ً‬ ‫ﺗﻌﻄﯿﻨﺎا ﻋﺪ ًدًا‬ ‫تعطينا‬
‫واﻟﺘﻲ ﺗﺠﻌﻞ اﻟﺪاﻟﺔ‬
‫ﺳﺘﻜﻮن ﻋﻤﻠﯿﺔ اﻟﺒﺤﺚ ُﻣﻘﺘ‬
‫اﻻﻓﺘﺮاﺿﺎت‪ ،‬إذ إن ھﻨﺎﻟﻚ‬ ‫إذ إن‬ ‫االفرتاضات‪،‬‬
‫اﻟﺤﺎﻟﺔ‪،‬‬
‫ھﺬه‬ ‫هذهﺑﻌﺪ وﺿﻊ‬
‫أﻋﻼه‪ .‬ﻓﻔﻲ ھﺬه‬
‫ﺣﺘﻰ‬ ‫وضع‬
‫بعدأﯾﻀًﺎ‬
‫ﻓﻲ اﻟﻨﻘﺎط‬
‫ﻻﻣﻨﺘﮭﯿًﺎ‬‫ﱠﺤﺔحتى‬ ‫ﯾﺒﻘﻰا‬
‫أيض‬
‫ﺿ‬‫ھﻨﺎاﻮ ً‬
‫المنته ًي ُﻤ‬
‫اﻷﺧﺮى اﻟ‬
‫اﻟﺒﺤﺚ‬‫ﻓﻀﺎءيبقى‬ ‫هنا‬
‫اﻟﻘﯿﻮد‬‫البحث‬ ‫فضاءوﻓﻖ‬
‫ﻣﻼﺣﻈﺔ أن‬
‫أن ﻓﻘﻂ‬ ‫مالحظة‬
‫اﻟﺨﻄﯿﺔ‬
‫ﯾﻤﻜﻦ‬
‫ﻓﻲ ﻓﻀﺎء اﻟﺪوال‬
‫ﻓﺼﻞ ﻣﺎ ﺑﻌﺪه أم ﻻ‪.‬‬
‫األعداد ﺗﻌﻄﯿﻨﺎ ﻋﺪدًا ً‬ ‫فضاء‬ ‫وهو‬ ‫‪،‬‬ ‫و‬ ‫تأخذها 𝒘𝒘‬
‫املمكن ﻟﻠأنُﻤﺘﻐﯿﱢﺮات‬ ‫ﻋﻠﻰمنإﯾﺠﺎد ﻗﯿﻢ‬ ‫التي‬ ‫ﻘﺘﺼﺮمةً‬
‫ي‬ ‫من ِ‬
‫الق‬ ‫ﻋﻤﻠﯿﺔالمنته ًيا‬ ‫ﺳﺘﻜﻮنعد ًدا‬
‫ﻔﻲ ھﺬه اﻟﺤﺎﻟﺔ‪،‬هنالك‬
‫ﻗﻠﯿﻼ ﻣﻦ‬ ‫اﻟﺪاﻟﺔ‬ ‫ﺗﺠﻌﻞ‬ ‫واﻟﺘﻲ‬ ‫𝑏𝑏‬ ‫(((‬
‫و‬ ‫َ‬ ‫اﻟﺒﺤﺚ ُﻣ‬
‫ﺑﻌﺪ وﺿﻊ ھﺬه اﻻﻓﺘﺮاﺿﺎت‪ ،‬إذ إن ھﻨﺎﻟﻚ ﻋﺪدًا ﻻﻣﻨﺘﮭﯿًﺎ ﻣﻦ اﻟﻘِﯿَﻢ اﻟﺘﻲ ﻣﻦاﻟﻤﻤﻜﻦ أن ﺗﺄﺧﺬھﺎ 𝒘𝒘 و ‪ ،𝑏𝑏1‬وھﻮ ﻓﻀﺎء اﻷﻋﺪا‬
‫ﻻ‪ .‬ﯾﻤﻜﻦ ﻣﻼﺣﻈﺔ أن ﻓﻀ‬ ‫يمكن‬ ‫الدوال‪ .‬كام‬
‫ﺑﻌﺪه أم‬ ‫مجيعﻓﺼﻞ ﻣﺎ‬ ‫ﯾﺠﺐ‬ ‫اﻟﺬيعىل‬‫اﻟﺤﺮفحيتوي‬ ‫املطلق الذي‬ ‫الفضاء ﺗﺤﺪﯾﺪ‬ ‫اﻷﺧﻄﺎء ﻓﻲ‬ ‫بكثري من‬ ‫أصغر ﻣﻦ‬ ‫ولكنهًا ً‬
‫ﻗﻠﯿﻼ‬ ‫احلقيقية‪،‬‬
‫ﺗﻌﻄﯿﻨﺎ ﻋﺪد‬ ‫واﻟﺘﻲ ﺗﺠﻌﻞ اﻟﺪاﻟﺔ‬
‫ﻦ أن ﺗﺄﺧﺬھﺎ 𝒘𝒘 و ‪ ،𝑏𝑏1‬وھﻮ ﻓﻀﺎء اﻷﻋﺪاد اﻟﺤﻘﯿﻘﯿﺔ‪ ،‬وﻟﻜﻨﮫ أﺻﻐﺮ ﺑﻜﺜﯿﺮ ﻣﻦاﻟﻔﻀﺎء اﻟﻤﻄﻠﻖ اﻟﺬي ﯾﺤﺘﻮي ﻋﻠﻰ ﺟﻤﯿﻊ اﻟﺪوال‬
‫اﻻﻓﺘﺮاﺿﺎت‪ ،‬إذ إن ھﻨﺎﻟﻚ‬ ‫مدخالت‬ ‫تأخذﻊ ھﺬه‬
‫وإنام وﺿ‬‫ﺣﺘﻰ ﺑﻌﺪ‬ ‫األحرف‪،‬‬ ‫وهي أﯾﻀًﺎ‬‫ﻻﻣﻨﺘﮭﯿًﺎ‬ ‫الرئيسية‪،‬‬
‫املدخالتھﻨﺎ ﯾﺒﻘﻰ‬ ‫ﻓﻀﺎء اﻟﺒﺤﺚ‬ ‫ﻣﻼﺣﻈﺔ الأن تأخذ‬ ‫ﯾﻤﻜﻦأن الدالة‬ ‫مالحظة‬ ‫ﺼﻞ ﻣﺎ ﺑﻌﺪه أم ﻻ‪.‬‬
‫اﻟﺮﺋﯿﺴﯿﺔ‪ ،‬وھﻲ اﻷﺣﺮف‪ ،‬وإﻧﻤ‬ ‫اﻟﻤﺪﺧﻼت‬ ‫ٍ‬
‫ء اﻟﻤﻄﻠﻖ اﻟﺬيأخرى متثل هذه األحرف‪ ،‬وهي األرقام املقابلة هلا‪ .‬لذا فإننا يف كثري من اخلوارزميات‪،‬‬
‫ﺗﺄﺧﺬ‬ ‫ﻻ‬ ‫اﻟﺪاﻟﺔ‬ ‫أن‬ ‫ﻣﻼﺣﻈﺔ‬ ‫ﯾﻤﻜﻦ‬ ‫ﻛﻤﺎ‬ ‫اﻟﺪوال‪.‬‬ ‫ﺟﻤﯿﻊ‬ ‫ﻋﻠﻰ‬ ‫ﯾﺤﺘﻮي‬
‫ھﻨﺎﻟﻚ ﻋﺪدًا ﻻﻣﻨﺘﮭﯿًﺎ ﻣﻦ اﻟﻘِﯿَﻢ اﻟﺘﻲ ﻣﻦ اﻟﻤﻤﻜﻦ أن ﺗﺄﺧﺬھﺎ 𝒘𝒘 و ‪ ،𝑏𝑏1‬وھﻮ ﻓﻀﺎء اﻷﻋﺪا‬ ‫اﻷﺣﺮف‪ٍ ،‬‬ ‫ﺪ وﺿﻊ ھﺬه اﻻﻓﺘﺮاﺿﺎت‪ ،‬إذ إن‬
‫تعمل‬
‫اﻟﻤﻘﺎﺑﻠﺔ ﻟﮭﺎ‪ .‬ﻟﺬا ﻓﺈﻧﻨﺎ ﻓﻲ ﻛ‬ ‫أخرى‬
‫اﻷرﻗﺎم‬ ‫وھﻲ‬ ‫مدخالت‬
‫اﻷﺣﺮف‪،‬‬ ‫الرئيسيةھﺬهإىل‬
‫أﺧﺮى ﺗﻤﺜﻞ‬ ‫املدخالت‬ ‫ﻣﺪﺧﻼت‬ ‫بتحويل‬ ‫تقومﺗﺄﺧﺬ‬ ‫وإﻧﻤﺎ‬ ‫ساعدة‬ ‫وھﻲدوال ُم‬ ‫ﻟﻤﺪﺧﻼت اﻟﺮﺋﯿﺴﯿﺔ‪،‬‬
‫نحتاج إىل‬
‫أن ﺗﺄﺧﺬھﺎ 𝒘𝒘 و ‪ ،𝑏𝑏1‬وھﻮ ﻓﻀﺎء اﻷﻋﺪاد اﻟﺤﻘﯿﻘﯿﺔ‪ ،‬وﻟﻜﻨﮫ أﺻﻐﺮ ﺑﻜﺜﯿﺮ ﻣﻦ اﻟﻔﻀﺎء اﻟﻤﻄﻠﻖ اﻟﺬي ﯾﺤﺘﻮي ﻋﻠﻰ ﺟﻤﯿﻊ اﻟﺪوال‬
‫ﺑﺘﺤﻮﯾﻞ اﻟﻤﺪﺧﻼت اﻟﺮﺋﯿﺴﯿﺔ‬ ‫‪Feature‬‬ ‫اخلصائص (‬
‫ﺗﻘﻮم‬ ‫دوال ُﻣﺴﺎﻋﺪ ٍة‬ ‫بتحويل‬
‫ﻧﺤﺘﺎج إﻟﻰ‬ ‫العملية‬ ‫اﻟﺨﻮارزﻣﯿﺎت‪،‬‬ ‫ُسمى هذه‬ ‫ﻣﻦ َّ‬ ‫عنها‪ .‬ت‬
‫ﻛﺜﯿﺮ‬
‫ٍ‬ ‫نبحث‬
‫ﻓﻲ‬ ‫التي ﻓﺈﻧﻨﺎ‬‫ﻟﮭﺎ‪ .‬ﻟﺬا‬ ‫الدالة‬ ‫عليها‬
‫اﻟﻤﻘﺎﺑﻠﺔ‬ ‫ف‪ ،‬وھﻲ اﻷرﻗﺎم‬
‫املهمة‪.‬اﻟﺮﺋﯿﺴﯿﺔ‪ ،‬وھﻲ اﻷﺣﺮف‪ ،‬وإﻧﻤ‬ ‫اﻟﻤﺪﺧﻼت‬ ‫تقوم هبذه‬ ‫التي ﺗﺄﺧﺬ‬‫اﻟﺪاﻟﺔ ﻻ‬
‫هي‬ ‫∅‪،‬‬‫الدالة أن‬‫أعاله‪ ،‬ﻣﻼﺣﻈﺔ‬ ‫ﻛﻤﺎ ﯾﻤﻜﻦ‬ ‫اﻟﺪوال‪.‬‬
‫ﺟﻤﯿﻊ)‪ .‬ويف‬ ‫اﻟﻤﻄﻠﻖ اﻟﺬي ﯾﺤﺘﻮي ﻋﻠﻰ‬
‫ﻧﺒﺤﺚ ﻋﻨﮭﺎ‪ .‬ﺗُﺴ ﱠﻤﻰ ھﺬه اﻟﻌﻤﻠﯿﺔ �‬ ‫اﻟﺘﻲ‬ ‫ﻋﻠﯿﮭﺎاﻟﺪاﻟﺔ‬ ‫ﺗﻌﻤﻞ‬ ‫فإن أﺧﺮى‬ ‫إﻟﻰ ﻣﺪﺧﻼت‬ ‫اﻟﺮﺋﯿﺴﯿﺔاملثال‬ ‫ُﻣﺴﺎﻋﺪ ٍة ﺗﻘﻮم ﺑﺘﺤﻮﯾﻞ اﻟﻤﺪﺧﻼت‬
‫‪Transformation‬‬
‫وھﻲ اﻷﺣﺮف‪ ،‬وإﻧﻤﺎ ﺗﺄﺧﺬ ﻣﺪﺧﻼت أﺧﺮى ﺗﻤﺜﻞ ھﺬه اﻷﺣﺮف‪ ،‬وھﻲ اﻷرﻗﺎم اﻟﻤﻘﺎﺑﻠﺔ ﻟﮭﺎ‪ .‬ﻟﺬا ﻓﺈﻧﻨﺎ ﻓﻲ‬ ‫ﻤﺪﺧﻼت اﻟﺮﺋﯿﺴﯿﺔ‪،‬‬
‫‪ .(Feature‬وﻓﻲ اﻟﻤﺜﺎل أ‬ ‫فصل وال‬ ‫يمكن حرصها يف‬
‫‪Transformation‬‬ ‫عليها ُمتعددة‪ ،‬إذ ال‬
‫�������)‬ ‫������‬ ‫اﻟﻌﻤﻠﯿﺔوطرق العمل‬ ‫اﻟﺘﻲ ﻧﺒﺤﺚ ﻋﻨﮭﺎ‪ .‬ﺗُﺴ ﱠﻤﻰ ھﺬه‬
‫وخوارزميات التعلم‬
‫ﻛﺜﯿﺮ ﻣﻦ اﻟﺨﻮارزﻣﯿﺎت‪ ،‬ﻧﺤﺘﺎج إﻟﻰ دوال ُﻣﺴﺎﻋﺪ ٍة ﺗﻘﻮم ﺑﺘﺤﻮﯾﻞ اﻟﻤﺪﺧﻼت اﻟﺮﺋﯿﺴﯿﺔ‬ ‫ومن ٍ‬ ‫ف‪ ،‬وھﻲ اﻷرﻗﺎم اﻟﻤﻘﺎﺑﻠﺔ ﻟﮭﺎ‪ .‬ﻟﺬا ﻓﺈﻧﻨﺎ ﻓﻲ‬
‫‪،)Neural Networks‬‬ ‫ﺑﮭﺬه اﻟﻤﮭﻤﺔ‪.‬‬ ‫العصبية (‬
‫الشبكاتاﻟﺘﻲ ﺗﻘﻮم‬ ‫الطرق‪ ،∅ ،‬ھﻲ‬ ‫ﻓﺈن اﻟﺪاﻟﺔ‬ ‫أﻋﻼه‪،‬هذه‬‫أبرز‬ ‫واحد‪.‬اﻟﻤﺜﺎل‬ ‫كتاب وﻓﻲ‬ ‫‪.(Feature‬‬‫‪Transforma‬حتى يف‬
‫متثل ﺗُﺴ ﱠﻤﻰ ھﺬه اﻟﻌﻤﻠﯿﺔ‬
‫عصبيةﻋﻨﮭﺎ‪.‬‬
‫خليةﻧﺒﺤﺚ‬ ‫اﻟﺪاﻟﺔكلاﻟﺘﻲ‬‫ﻋﻠﯿﮭﺎإذ إن‬
‫لإلنسان‪.‬‬ ‫العصبيﺗﻌﻤﻞ‬ ‫النظام أﺧﺮى‬ ‫ﻣﺪﺧﻼت‬ ‫لتحاكي‬ ‫اﻟﺮﺋﯿﺴﯿﺔ إﻟﻰ‬
‫رياضية تُبنى‬ ‫اﻟﻤﺪﺧﻼت‬‫وهي نامذج‬ ‫ﺴﺎﻋﺪ ٍة ﺗﻘﻮم ﺑﺘﺤﻮﯾﻞ‬
‫وﺧﻮارزﻣﯿﺎت اﻟﺘﻌﻠﻢ وطﺮق اﻟﻌﻤﻞ ﻋﻠﯿﮭﺎ ُﻣﺘﻌﺪد‬ ‫ﻤﮭﻤﺔ‪.‬‬
‫‪ .(Feature‬وﻓﻲ اﻟﻤﺜﺎل أ‬ ‫اخلاليا‬ ‫األساسية التي متثلها‬
‫‪Transformation‬‬ ‫������من جمموعة الدوال‬
‫������� )‬ ‫بكاملها دالة ُمركَّبة‬ ‫اﻟﻌﻤﻠﯿﺔ‬‫الشبكة‬ ‫وتكونھﺬه‬ ‫ُ‬
‫دالة ﺗﺴ ﱠﻤﻰ‬‫ﺘﻲ ﻧﺒﺤﺚ ﻋﻨﮭﺎ‪.‬‬
‫رزﻣﯿﺎت اﻟﺘﻌﻠﻢ وطﺮق اﻟﻌﻤﻞ ﻋﻠﯿﮭﺎ ُﻣﺘﻌﺪدة‪ ،‬إذ ﻻ ﯾﻤﻜﻦ ﺣﺼﺮھﺎ ﻓﻲ ﻓﺼﻞوﻻ ﺣﺘﻰ ﻓﻲ ﻛﺘﺎب واﺣﺪ‪ .‬وﻣﻦ أﺑﺮز‬
‫اﻟﻤﮭﻤﺔ‪.‬سنتطرق له يف‬ ‫وهي ما‬ ‫االحتاملية‪،‬ﺑﮭﺬه‬
‫الطرق اﻟﺘﻲ ﺗﻘﻮم‬ ‫أيضا∅‪ ،‬ھﻲ‬ ‫األخرىاﻟﺪاﻟﺔ‬
‫أﻋﻼه‪ ،‬ﻓﺈن‬ ‫الطرق‬‫اﻟﻤﺜﺎل‬ ‫وﻓﻲأبرز‬ ‫‪.(Feature‬ومن‬
‫‪ Transform‬العصبية‪.‬‬
‫������� )‪ ،(Neural Networks‬و‬ ‫�������‬ ‫اﻟﻄﺮق‪،‬‬ ‫ھﺬه‬ ‫أﺑﺮز‬ ‫وﻣﻦ‬ ‫واﺣﺪ‪.‬‬ ‫ﺣﺘﻰ ﻓﻲ ﻛﺘﺎب‬
‫اجلزء التايل‪ ،‬وكذلك التعرف النمطي يف الفضاء الداليل‪ ،‬وهي ما سنختم به هذا الفصل‪.‬‬ ‫ﮭﻤﺔ‪.‬‬
‫وﺧﻮارزﻣﯿﺎت اﻟﺘﻌﻠﻢ وطﺮق اﻟﻌﻤﻞ ﻋﻠﯿﮭﺎ ُﻣﺘﻌﺪد‬
‫����� )‪ ،(Neural Networks‬وھﻲ ﻧﻤﺎذج رﯾﺎﺿﯿﺔ ﺗُﺒﻨﻰ ﻟﺘﺤﺎﻛﻲاﻟﻨﻈﺎم اﻟﻌﺼﺒﻲ ﻟﻺﻧﺴﺎن‪ .‬إذ إن ﻛﻞ ﺧﻠﯿﺔ ﻋﺼﺒﯿ‬
‫زﻣﯿﺎت اﻟﺘﻌﻠﻢ وطﺮق اﻟﻌﻤﻞ ﻋﻠﯿﮭﺎ ُﻣﺘﻌﺪدة‪ ،‬إذ ﻻ ﯾﻤﻜﻦ ﺣﺼﺮھﺎ ﻓﻲ ﻓﺼﻞ وﻻ ﺣﺘﻰ ﻓﻲ ﻛﺘﺎب واﺣﺪ‪ .‬وﻣﻦ أﺑﺮز‬
‫اآللة وﺗﻜﻮن اﻟﺸﺒﻜﺔ ﺑﻜﺎﻣﻠﮭﺎداﻟﺔ ُﻣﺮ ﱠﻛﺒﺔ ﻣﻦ ﻣﺠﻤﻮﻋﺔ اﻟﺪوال اﻷﺳﺎﺳﯿﺔ اﻟﺘﻲ‬ ‫ﻋﺼﺒﯿﺔتعلم‬
‫ﺗﻤﺜﻞ داﻟﺔ‬ ‫االحتاملية يف‬
‫‪-3‬الطرقﻛﻞ ﺧﻠﯿﺔ‬
‫اﻟﻌﺼﺒﻲ ﻟﻺﻧﺴﺎن‪ .‬إذ إن‬
‫ﺘﻰ ﱠ ﻓﻲ ﻛﺘﺎب واﺣﺪ‪ .‬وﻣﻦ أﺑﺮز ھﺬه اﻟﻄﺮق‪ ،(Neural Networks) ������� ������� ،‬و‬
‫وﻣﻦإىلأﺑﺮز‬
‫كثرة قواعد اللغة وتعقيدها‪،‬‬ ‫اﻟﻌﺼﺒﯿﺔ‪.‬‬
‫اخلبرية‬ ‫ﺗﻤﺜﻠﮭﺎ اﻟﺨﻼﯾﺎ‬
‫استخدام النظم‬ ‫صعوبة‬‫اﻷﺳﺎﺳﯿﺔعناﻟﺘﻲ‬
‫اﻟﺪواليف حديثنا‬
‫ﺮﻛﺒﺔ ﻣﻦ ﻣﺠﻤﻮﻋﺔأرشنا‬
‫���� )‪ ،(Neural Networks‬وھﻲ ﻧﻤﺎذج رﯾﺎﺿﯿﺔ ﺗُﺒﻨﻰ ﻟﺘﺤﺎﻛﻲ اﻟﻨﻈﺎم اﻟﻌﺼﺒﻲ ﻟﻺﻧﺴﺎن‪ .‬إذ إن ﻛﻞ ﺧﻠﯿﺔ ﻋﺼﺒﯿ‬
‫ُضطر‬
‫إضافة إىل أن بعض قواعد املعاجلة غري معروفة عىل سبيل اليقني‪ .‬وهذا ما جيعلنا ن ُّ‬
‫اﻟﻮﺻﻮل اﻟﺪوال اﻷﺳﺎﺳﯿﺔ اﻟﺘﻲ‬ ‫ﻟﻌﺼﺒﻲ ﻟﻺﻧﺴﺎن‪ .‬إذ إن ﻛﻞ ﺧﻠﯿﺔ ﻋﺼﺒﯿﺔ ﺗﻤﺜﻞ داﻟﺔ وﺗﻜﻮن اﻟﺸﺒﻜﺔ ﺑﻜﺎﻣﻠﮭﺎ داﻟﺔ ُﻣﺮ ﱠ‬
‫ذﻟﻚ‪،‬ﺒﺔﻓﺈﻧﮫﻣﻦﯾﻤﻜﻦﻣﺠﻤﻮﻋﺔ‬
‫املعاجلة‪.‬ﻟﻠﺪاﻟﺔ اﻟﺘﻲ ﺗﺤﻘﻖ اﻟﺸﺮوط اﻟﻤ‬ ‫‪Uncertainty‬ﻛ) بصحة‬
‫‪1‬وﻣﻊ‬ ‫إىل معاجلة كثري من الرتاكيب اللغوية مع عدم اليقني (‬
‫طﺮق رﯾﺎﺿﯿﺔ ﻣﺸﮭﻮرة )‪oyd & Vandenberghe, 2004‬‬
‫األقرب للصحة‪ .‬ولكي نستطيع‬ ‫أﺑﺮز‬ ‫وﻣﻦ‬
‫ﺑﺎﺳﺘﺨﺪام‬ ‫اﻟﻌﺼﺒﯿﺔ‪.‬‬
‫املعاجلة‬
‫وذﻟﻚ‬ ‫إىل‬ ‫نصل‬
‫ﻣﻮﺟﻮدة‬ ‫اﻟﺨﻼﯾﺎ‬ ‫ﺗﻤﺜﻠﮭﺎ‬
‫نحتاجإنأن‬
‫ﻛﺎﻧﺖ‬ ‫اﻟﺘﻲ‬
‫اﻷﺳﺎﺳﯿﺔاﻟﺸﺮوط‬
‫احلالة‪،‬اﻟﻤﻌﻄﺎة‬ ‫هذه‬
‫يف ﺗﺤﻘﻖ‬ ‫اﻟﺪوال‬
‫فإننااﻟﺘﻲ‬ ‫ﻣﺠﻤﻮﻋﺔ‬
‫هلذا‪،‬ﻟﻠﺪاﻟﺔ‬
‫اﻟﻮﺻﻮل‬ ‫ﻣﻦ ﯾﻤﻜﻦ‬ ‫ﱠﻛﺒﺔ‬
‫ذﻟﻚ‪ ،‬ﻓﺈﻧﮫ‬
‫‪32‬‬
‫ﯾﺎﺿﯿﺔ ﻣﺸﮭﻮرة )‪.(Boyd & Vandenberghe, 2004‬‬
‫‪32‬‬
‫‪1‬وﻣﻊ ذﻟﻚ‪ ،‬ﻓﺈﻧﮫ ﯾﻤﻜﻦ اﻟﻮﺻﻮل ﻟﻠﺪاﻟﺔ اﻟﺘﻲ ﺗﺤﻘﻖ اﻟﺸﺮوط اﻟﻤ‬
‫‪ -1‬ومع ذلك‪ ،‬فإنه يمكن الوصول للدالة التي حتقق الرشوط املعطاة إن كانت موجودة وذلك باستخدام طرق رياضية‬
‫طﺮق رﯾﺎﺿﯿﺔ ﻣﺸﮭﻮرة )‪oyd & Vandenberghe, 2004‬‬
‫ﻣﻮﺟﻮدة وذﻟﻚ ﺑﺎﺳﺘﺨﺪام‬ ‫‪.)Boyd‬‬ ‫‪& Vandenberghe,‬‬
‫إن ﻛﺎﻧﺖ‬ ‫(‪2004‬‬
‫ﺗﺤﻘﻖ اﻟﺸﺮوط اﻟﻤﻌﻄﺎة‬ ‫مشهورةاﻟﺘﻲ‬
‫ﻚ‪ ،‬ﻓﺈﻧﮫ ﯾﻤﻜﻦ اﻟﻮﺻﻮل ﻟﻠﺪاﻟﺔ‬
‫‪32‬‬
‫ﺿﯿﺔ ﻣﺸﮭﻮرة )‪.(Boyd & Vandenberghe, 2004‬‬

‫‪-32-‬‬ ‫‪32‬‬
‫حتديد ال ُقرب وال ُبعد من صحة املعاجلة‪ ،‬فإننا نحتاج إىل وضع ِمعيار ك َِّم ٍّي لدرجة‬
‫الشك‪ .‬فلو أخذنا املثال الذي ذكرناه يف الغموض الرتكيبي‪ ،‬وهو حتديد قراءة مجلة‬
‫جالسا»‪ ،‬فإن درجة الشك لدينا بأن املراد هو القراءة الشائعة‪:‬‬
‫ً‬ ‫«رأيت الرجل‬
‫{ (رأى ت) [ (الـ رجل) (جالسا) ] }‬
‫ُّ‬
‫أقل بكثري من درجة الشك بأن ا ُملراد هو القراءة الشاذة‪:‬‬
‫{ [ (رأى ت) (الـ رجل) ] (جالسا) }‬
‫ذلك ألن القراءة األوىل هي ا َملعن َّية يف الغالب‪ ،‬ولكن ال يمكن القول بأن القراءة‬
‫األوىل هي ا ُملرادة عىل سبيل اليقني‪.‬‬
‫ومن النظريات ا ُملستخدمة لقياس درجة الشك بشكل كمي نظرية االحتامالت‬
‫ريايض يمكن الرجوع إليه يف‬
‫ٌّ‬ ‫ٌ‬
‫تأصيل‬ ‫(‪ .)Probability Theory‬ولنظرية االحتامالت‬
‫ِ‬
‫حدثني ولتكن ‪ P‬دالة احتاملية‪ ،‬فإنه‪:‬‬ ‫(‪ .)Casella & Berger, 2001‬ليكن ‪ x‬و ‪y‬‬
‫• إذا ﻛﺎن 𝑥𝑥 ﺣﺪﺛًﺎ ﻣﺴﺘﺤﯿﻞ اﻟﻮﻗﻮع‪ً ،‬‬
‫ﻓﻲ عريب يف كلمة‬
‫حرف‬‫ﻣﺜﻼ 𝑥𝑥 ھﻮ ً"ﻋﺪم وﺟﻮد ﺣﺮف ﻋﺮﺑﻲ‬
‫مستحيل الوقوع‪ ،‬مثل ‪ x‬هو «عدم وجود‬ ‫Ÿ Ÿإذا كان ‪ x‬حد ًثا‬
‫فإن=‪.𝑃𝑃 𝑥𝑥= 0‬‬
‫)‪.P(x‬‬ ‫ﻓﺈن ‪0‬‬ ‫ﻛﻠﻤﺔ ﻋﺮﺑﯿﺔ"‪،‬‬
‫عربية»‪،‬‬
‫• إذا ﻛﺎن 𝑥𝑥 ﺣﺪﺛًﺎ ﯾﻘﯿﻨﯿًّﺎ‪ً ،‬‬
‫ﻣﺜﻼ 𝑥𝑥 ھﻲ "وﺟﻮد ﺣﺮف ﻋﺮﺑﻲ ﻓﻲ ﻛﻠﻤﺔ ﻋﺮﺑﯿﺔ"‪،‬‬
‫Ÿ Ÿإذا كان ‪ x‬حد ًثا يقين ًّيا‪ً ،‬‬
‫مثل ‪ x‬هي «وجود حرف عريب يف كلمة عربية»‪ ،‬فإن‬
‫ﻓﺈن ‪.𝑃𝑃 =𝑥𝑥 1 = 1‬‬
‫)‪.P(x‬‬
‫• إذا ﻛﺎن 𝑥𝑥 ﺣﺪﺛًﺎ ﻣﺸﻜﻮ ًﻛﺎ ﻓﻲ وﻗﻮﻋﮫ‪ً ،‬‬
‫ﻣﺜﻼ 𝑥𝑥 ھﻮ "وﺟﻮد ﺣﺮف اﻟﻀﺎد ﻓﻲ‬
‫مثل ‪ x‬هو «وجود حرف الضاد يف كلمة‬ ‫Ÿ Ÿإذا كان ‪ x‬حد ًثا مشكوكًا يف وقوعه‪ً ،‬‬
‫ﻣﺜﻼً‬ ‫ً‬
‫حدﺛًثﺎا آ َ َﺧ‬
‫مثل ‪ y‬هو «وجود‬ ‫آخ ََﺮر‪ً ،،‬‬ ‫كان ‪ 𝑦𝑦y‬ﺣﺪ‬
‫إذا ﻛﺎن‬
‫إنه إذا‬
‫بحيث إﻧﮫ‬
‫‪ 0‬ﺑﺤﯿﺚ‬ ‫)‪0 <<P𝑃𝑃(x‬‬ ‫فإن‪𝑥𝑥 ><1‬‬ ‫ﻓﺈن ‪1‬‬ ‫ﻛﻠﻤﺔ ﻋﺮﺑﯿﺔ"‪،‬‬
‫عربية»‪،‬‬
‫ﺑﻮﻗﻮعأقل𝑥𝑥 منه بوقوع ‪y‬‬
‫بوقوع ‪x‬‬ ‫ﻛﺎنُّنا ﺷ ﱡﻜﻨﺎ‬
‫ﻋﺮﺑﯿﺔ"‪،‬إذاﻓﺈﻧﮫكانإذا شك‬ ‫ﻓﻲ ﻛﻠﻤﺔ‬
‫عربية»‪ ،‬فإنه‬ ‫اﻟﮭﺎءكلمة‬ ‫حرفﺣﺮف‬
‫اهلاء يف‬ ‫𝑦𝑦 ھﻮ "وﺟﻮد‬
‫)𝑦𝑦(𝑃𝑃 ≥ 𝑥𝑥 𝑃𝑃‪.‬‬ ‫≥ )‪.P(x‬‬ ‫فإن( 𝑦𝑦‬
‫‪P(y‬ﻓﺈن‬ ‫أﻗﻞ ﻣﻨﮫ ﺑﻮﻗﻮع‬
‫مثل ‪x‬ﺗﺒﺪأهوﻛﻠﻤﺔ‬
‫«أن تبدأ كلمة ما‬ ‫ھﻮ ً‬
‫"أن‬ ‫ﻣﺜﻼ ِ‬
‫أو ‪y‬ﻣﻌالًﺎ‪ً ،‬‬
‫يقعان𝑥𝑥م ًعا‪،‬‬ ‫ﯾﻘﻌﺎن‬ ‫إحدىأو 𝑦𝑦 ﻻ‬
‫حدثني ‪ِ x‬‬ ‫ﺣﺪﺛﯿﻦ 𝑥𝑥‬
‫حدوث‬ ‫احتاملإﺣﺪى‬
‫ﺣﺪوث‬ ‫• اﺣﺘﻤﺎلŸ Ÿ‬
‫أي‬
‫احتامل حدوث ٍّ‬
‫التاء»‪،‬ﻓﺈنفإناﺣﺘﻤﺎل‬ ‫اﻟﺘﺎء"‪،‬‬‫بحرف‬‫ﺑﺤﺮف‬ ‫كلمة ما‬ ‫ﺗﺒﺪأتبدأ‬
‫ﻛﻠﻤﺔ ﻣﺎ‬ ‫"أن«أن‬ ‫الواو» وھﻮ‪ y‬هو‬ ‫ﻣﺎ ﺑﺤﺮفبحرف‬
‫اﻟﻮاو" و 𝑦𝑦‬
‫ھﻮ )𝑦𝑦(𝑃𝑃 ‪. .𝑃𝑃(𝑥𝑥 ∨ 𝑦𝑦) = 𝑃𝑃 𝑥𝑥 +‬‬ ‫اﻟﺤﺪﺛﯿﻦهو‬
‫ﻣﻦاحلدثني‬‫ﺣﺪوث أيﱟمن‬
‫ﺑﻮﻗﻮعبوقوع أحدمها‬
‫ﻣﻌﺮﻓﺘﻨﺎمعرفتنا‬ ‫إذا كانت‬ ‫ﻛﺎﻧﺖ‬ ‫‪)Independent‬‬ ‫ستق َّل ِ‬
‫ني (‬
‫‪ (Independent‬إذا‬ ‫ﯿﻦم )‬ ‫عترب𝑥𝑥 و 𝑦𝑦 ِ‬
‫احلدثان ُﻣ‪ x‬و ﱠ‬ ‫• ﯾُﻌﺘﺒﺮ Ÿ Ÿ ُي ِ‬
‫ﺴﺘﻘﻠ‪ُ ِ y‬‬ ‫اﻟﺤﺪﺛﺎن‬
‫خمتلفان ‪ T1‬و ‪،T2‬‬
‫ﻧﺼﺎن‬ ‫نصان‬ ‫لديناﻟﺪﯾﻨﺎ‬ ‫كانﻛﺎن‬ ‫ذﻟﻚلو ﻟﻮ‬
‫ﻣﺜﺎلذلك‬
‫ﻵﺧﺮ‪.‬مثال‬
‫اآلخر‪.‬‬ ‫ﻣﻦ شﺷك ﱢﻜِّناﻨﺎ بوقوع‬
‫ﺑﻮﻗﻮع ا‬ ‫ُغري من‬
‫أﺣﺪھﻤﺎ ﻻالﺗُتﻐﯿﺮ‬
‫ﻣﺨﺘﻠﻔﺎن !𝑇𝑇 و !𝑇𝑇‪ ،‬وﻛﺎن 𝑥𝑥 ھﻮ "وﺟﻮد ﻛﻠﻤﺔ اﻟﺬﻛﺎء ﻓﻲ !𝑇𝑇" و 𝑦𝑦 ھﻮ‬ ‫‪-‬‬
‫‪-33-‬اﻟﺤﺎﻟﺔ ﯾﻜﻮن اﺣﺘﻤﺎل وﻗﻮع‬
‫"وﺟﻮد ﻛﻠﻤﺔ اﻻﺻﻄﻨﺎﻋﻲ ﻓﻲ !𝑇𝑇"‪ ،‬ﻓﻔﻲ ھﺬه‬
‫𝑦𝑦|𝑥𝑥 𝑃𝑃ھﻮ‬ ‫اﻟﺤﺪث 𝑥𝑥 ﺑﻌﺪ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮع اﻟﺤﺪث 𝑦𝑦‪ ،‬وﯾﺮﻣﺰ ﻟﮫ ﺑﺎﻟﺮﻣﺰ‬
‫‪ (Independent‬إذا ﻛﺎﻧﺖ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮع‬ ‫)𝑦𝑦 )∨ 𝑥𝑥(𝑃𝑃‪.‬‬ ‫ﺴﺘﻘﻠﱠ ِ‬
‫ﯿﻦ‬ ‫اﻟﺤﺪﺛﺎن‪ 𝑥𝑥+‬و𝑥𝑥 𝑦𝑦𝑃𝑃 ُﻣ=‬
‫ُﻌﺘﺒﺮ)𝑦𝑦(𝑃𝑃 ِ‬ ‫ﻦﯾ ھﻮ‬
‫ﯿﻦ )‪ (Independent‬إذا ﻛﺎﻧﺖ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮ‬ ‫اﻟﺤﺪﺛﺎن 𝑥𝑥 و 𝑦𝑦 ُﻣﺴﺘﻘﻠﱠ ِ‬
‫ِ‬ ‫• ﯾُﻌﺘﺒﺮ‬
‫أﺣﺪھﻤﺎ ﻻ ﺗُﻐﯿﺮ ﻣﻦ ﺷ ﱢﻜﻨﺎ ﺑﻮﻗﻮع اﻵﺧﺮ‪ .‬ﻣﺜﺎل ذﻟﻚ ﻟﻮ ﻛﺎن ﻟﺪﯾﻨﺎ ﻧﺼﺎن‬
‫ﯿﻦ )‪ (Independent‬إذا ﻛﺎﻧﺖ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮعأﺣﺪھﻤﺎ ﻻ ﺗُﻐﯿﺮ ﻣﻦ ﺷ ﱢﻜﻨﺎ ﺑﻮﻗﻮع اﻵﺧﺮ‪ .‬ﻣﺜﺎل ذﻟﻚ ﻟﻮ ﻛﺎن ﻟﺪﯾﻨﺎ ﻧﺼ‬ ‫𝑦𝑦 ُﻣﺴﺘﻘﻠﱠ ِ‬
‫ﻣﺜﺎل 𝑥𝑥ذﻟﻚھﻮﻟﻮ"وﺟﻮد ﻛﻠﻤﺔ اﻟﺬﻛﺎء ﻓﻲ 𝑇𝑇" و 𝑦𝑦 ھﻮ‬ ‫ﻵﺧﺮ‪.‬وﻛﺎن‬ ‫ﺑﻮﻗﻮعوا !𝑇𝑇‪،‬‬
‫ﻣﺨﺘﻠﻔﺎن !𝑇𝑇‬ ‫ﺷ ﱢﻜﻨﺎ‬
‫ﻛﺎن ﻟﺪﯾﻨﺎ ﻧﺼﺎنﻣﺨﺘﻠﻔﺎن !!𝑇𝑇 و !𝑇𝑇‪ ،‬وﻛﺎن 𝑥𝑥 ھﻮ "وﺟﻮد ﻛﻠﻤﺔ اﻟﺬﻛﺎء ﻓﻲ !𝑇𝑇" و 𝑦𝑦‬ ‫‪-‬‬
‫اﻟﺤﺎﻟﺔ ﯾﻜﻮن اﺣﺘﻤﺎل وﻗﻮع‬ ‫ھﺬه‬
‫كلمة 𝑦𝑦 ھﻮ‬
‫𝑇𝑇" و‬ ‫ﻓﻲ ﻓﻔﻲ‬ ‫اﻻﺻﻄﻨﺎﻋﻲ ﻓﻲ‬
‫اﻟﺬﻛﺎء!𝑇𝑇"‪،‬‬ ‫ﻛﻠﻤﺔ "وﺟﻮد ﻛﻠﻤﺔ‬ ‫ھﻮ‬ ‫"وﺟﻮد‬
‫‪-‬االصطناعي‪ -‬اﻟﺤﺎﻟﺔ ﯾﻜﻮن اﺣﺘﻤﺎل و‬
‫كلمة !𝑇𝑇"‪ ،‬ﻓﻔﻲ ھﺬه‬ ‫ﻛﻠﻤﺔو‪y‬هو «وجود‬
‫اﻻﺻﻄﻨﺎﻋﻲ ﻓﻲ‬ ‫"وﺟﻮديف ‪»T1‬‬
‫‪-‬الذكاء‪-‬‬ ‫«وجود‬
‫!‬ ‫وكان ‪ x‬هو‬ ‫وﻛﺎن 𝑥𝑥 ‪-‬‬
‫وﻗﻮعﺑﺎﻟﺮﻣﺰ 𝑦𝑦|𝑥𝑥 𝑃𝑃ھﻮ‬
‫بوقوع‪،‬احلدث‬
‫وﯾﺮﻣﺰ ﻟﮫ ﺑﺎﻟﺮﻣﺰ 𝑦𝑦|𝑥𝑥 𝑃𝑃‬ ‫اﻟﺤﺪث 𝑦𝑦‬‫معرفتنا‬
‫ﺑﻮﻗﻮع‬‫ﻣﻌﺮﻓﺘﻨﺎبعد‬
‫وقوعﺑﻌﺪاحلدث ‪x‬‬ ‫يكونﻟﮫاحتامل‬
‫اﻟﺤﺪث 𝑥𝑥‬
‫وﯾﺮﻣﺰ‬
‫هذه𝑦𝑦‪،‬احلالة‬
‫اﺣﺘﻤﺎل‬ ‫اﻟﺤﺪث‬
‫ﯾﻜﻮن‬ ‫ففي‬‫اﻟﺤﺎﻟﺔ‬‫ﺑﻮﻗﻮع‬
‫»‪،‬‬ ‫ھﺬه‪T‬‬
‫‪2‬‬
‫ﻣﻌﺮﻓﺘﻨﺎيف‬
‫ﺑﻌﺪ𝑇𝑇"‪ ،‬ﻓﻔﻲ‬ ‫اﻟﺤﺪث 𝑥𝑥‬
‫ﻄﻨﺎﻋﻲ ﻓﻲ !‬

‫أي )𝑥𝑥(𝑃𝑃 = 𝑦𝑦 𝑥𝑥 𝑃𝑃‪.‬‬ ‫وقوع𝑥𝑥‪ ،،x‬أي‬


‫احتاملوﻗﻮع‬
‫نفسهاﺣﺘﻤﺎل‬ ‫𝑦𝑦|𝑥𝑥‪𝑃𝑃 .‬ھﻮ‬
‫هوﻧﻔﺴﮫ‬
‫بالرمز𝑦𝑦 𝑥𝑥 𝑃𝑃‬ ‫)𝑥𝑥(𝑃𝑃له =‬
‫ﺑﺎﻟﺮﻣﺰ‬ ‫ويرمز‬
‫وﯾﺮﻣﺰ ﻟﮫ‬‫أي‬‫اﻟﺤﺪثﻮع𝑦𝑦‪،y ،𝑥𝑥،‬‬
‫اﺣﺘﻤﺎل وﻗ‬ ‫ﺑﻮﻗﻮع‬‫ﻨﺎﻧﻔﺴﮫ‬
‫ﺮﺗﺒﻄﯿﻦ )‪ِ (Associated‬إذا ﻛﺎﻧﺖ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮع‬ ‫يعترب ِ‬ ‫𝑥𝑥Ÿ ُﻣ𝑃𝑃‪.‬‬
‫اﻟﺤﺪﺛﺎن=𝑥𝑥 و𝑦𝑦 𝑦𝑦‬
‫ﯾﻌﺘﺒﺮ)𝑥𝑥(𝑃𝑃‬
‫معرفتنا)بوقوع أحدمها‬
‫‪ (Associated‬إذا ﻛﺎﻧﺖ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮ‬ ‫ﺮﺗﺒﻄﯿﻦ‬
‫ِ‬ ‫كانت‬
‫‪𝑥𝑥)Associated‬إذاو 𝑦𝑦 ُﻣ‬
‫رتبطني (ﯾﻌﺘﺒﺮ اﻟﺤﺪﺛﺎن‬
‫•‬ ‫احلدثان ‪ x‬و ‪ُ y‬م‬ ‫Ÿ‬ ‫‪ ،‬أي‬
‫وﻛﺎن‬ ‫لو‪،‬‬
‫ﻧﺺ 𝑇𝑇‬ ‫ﻟﺪﯾﻨﺎ‬ ‫أﺣﺪھﻤﺎ ﺗُ‬
‫اﻵﺧﺮ‪.‬وكان‬
‫ﻣﺜﺎل‪x‬ذﻟﻚهوﻟﻮ ﻛﺎن ﻟﺪﯾﻨﺎ ﻧﺺ 𝑇𝑇‪ ،‬و‬ ‫نص ‪،T‬‬ ‫ﺷﻜﻨﺎلدينا‬
‫ﺑﻮﻗﻮع‬ ‫ﻣﻦكان‬ ‫ذلك‬
‫ﻐﯿﺮ‬ ‫ﻛﺎنمثال‬
‫أﺣﺪھﻤﺎ ﺗُ‬ ‫ذﻟﻚ ﻟﻮ‬
‫اآلخر‪.‬‬
‫ﺑﻮﻗﻮع‬ ‫بوقوع‬
‫ﻣﻌﺮﻓﺘﻨﺎ‬ ‫ﻛﺎﻧﺖﻣﺜﺎل‬
‫إذااﻵﺧﺮ‪.‬‬
‫شكنا‬ ‫ﺑﻮﻗﻮعمن‬
‫ﻐﯿﺮ) ﻣﻦ ﺷﻜﻨﺎ تُغري‬
‫‪(Associated‬‬ ‫ﺮﺗﺒﻄﯿﻦ‬
‫ِ‬ ‫𝑦𝑦 ُﻣ‬
‫ففي"وﺟﻮد ﻛﻠﻤﺔ اﻻﺻﻄﻨﺎﻋ‬ ‫‪-‬االصطناعي‪"-‬يفو ‪،»𝑦𝑦T‬ھﻮ‬
‫كلمة اﻟﺬﻛﺎء ﻓﻲ 𝑇𝑇‬ ‫ھﻮ «وجود‬ ‫هو‬
‫اﻻﺻﻄﻨﺎﻋﻲ‬ ‫"وﺟﻮدو‪y‬ﻛﻠﻤﺔ‬
‫‪-‬الذكاء‪،𝑇𝑇-‬يف ‪«T‬‬
‫ﻧﺺھﻮ‬ ‫كلمة "‬
‫ﻟﺪﯾﻨﺎو 𝑦𝑦‬ ‫ﻛﺎن𝑇𝑇‬‫«وجودﻓﻲ‬
‫اﻟﺬﻛﺎءﻟﻮ‬ ‫اﻵﺧﺮ‪.‬ﻛﻠﻤﺔ‬
‫ﺑﻮﻗﻮع"وﺟﻮد‬ ‫ﺎ𝑥𝑥 ‪-‬ھﻮ‬
‫"وﺟﻮد ﻛﻠﻤﺔ‬ ‫وﻛﺎن𝑥𝑥 ‪-‬‬ ‫ﻣﺜﺎل ذﻟﻚ‬ ‫‪-‬‬ ‫‪-‬‬
‫ﺑﺎﻟﺮﻣﺰ ∧ 𝑥𝑥 𝑃𝑃‬ ‫ﻟﮫ‬
‫يتغي عنه‬ ‫وﻧﺮﻣﺰ‬ ‫ﺑﻌﻀﮭﻤﺎ‪،‬‬ ‫ﻣﻊ‬ ‫𝑦𝑦‬ ‫و‬ ‫𝑥𝑥‬ ‫اﻟﺤﺪﺛﯿﻦ‬ ‫وﻗﻮع‬ ‫اﺣﺘﻤﺎل‬
‫بوقوعﻓﺈناحلدث‬
‫اﺣﺘﻤﺎل‪َّ ،y‬‬ ‫معرفتنااﻟﺤﺎﻟﺔ‬ ‫احلدث𝑇𝑇 ‪،"x‬بعد‬
‫ﻛﻠﻤﺔ احتامل وقوع ﻓﻲ‬
‫فإن وﻗﻮع اﻟﺤﺪث‬ ‫احلالة‬ ‫هذهﻓﺈن‬
‫ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮع‬ ‫اﻻﺻﻄﻨﺎﻋﻲ 𝑥𝑥 ﺑﻌﺪ‬ ‫•‬
‫اﺣﺘﻤﺎل‬ ‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺤﺪث 𝑥𝑥 ﺑﻌﺪ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮ‬ ‫وﻗﻮع‬ ‫ﻓﻔﻲ ھﺬه‬ ‫"وﺟﻮد‬ ‫𝑇𝑇"‪،‬ﻓﻲﻓﻔﻲ𝑇𝑇 "ھﺬهو 𝑦𝑦 ھﻮ‬ ‫اﻟﺬﻛﺎء‬ ‫ﻓﻲ‬

‫ﺑﺎﻟﺮﻣﺰ ∧ 𝑥𝑥‬ ‫)𝑥𝑥(𝑃𝑃ﻣﻊ≠ 𝑦𝑦 𝑥𝑥 𝑃𝑃‪. .‬‬ ‫أي و 𝑦𝑦‬


‫ھﻮ‪:‬‬
‫أي‬ ‫بوقوع𝑦𝑦𝑦𝑦‪،،،y‬‬
‫ﺑﻮﻗﻮع‬ ‫معرفتنا‬
‫ﻣﻌﺮﻓﺘﻨﺎ𝑥𝑥‬
‫قبل‬‫وﻗﻮعﻗﺒﻞ‬‫ﻋﻨﮫ‬
‫اﺣﺘﻤﺎلﱠﺮ •‬
‫ﻓﺈن𝑦𝑦‪ ،‬ﯾﺘﻐﯿ‬ ‫اﻟﺤﺪث‬
‫ﺑﻮﻗﻮع 𝑦𝑦𝑃𝑃‪ ،‬أي )𝑥𝑥(𝑃𝑃 ≠ 𝑦𝑦 𝑥𝑥 𝑃𝑃‪.‬‬ ‫وﻧﺮﻣﺰﻗﺒﻞﻟﮫ ﻣﻌﺮﻓﺘﻨﺎ‬
‫ﺑﻌﻀﮭﻤﺎ‪،‬ﯿﱠﺮ ﻋﻨﮫ‬
‫ﺑﻮﻗﻮعاﻟﺤﺪث 𝑦𝑦‪ ،‬ﯾﺘﻐ‬ ‫اﻟﺤﺪﺛﯿﻦ‬
‫ﻣﻌﺮﻓﺘﻨﺎ𝑥𝑥‬ ‫وﻗﻮعﺑﻌﺪ‬ ‫اﺣﺘﻤﺎل‬
‫اﻟﺤﺪث‬ ‫ﺤﺎﻟﺔ‬
‫= 𝑦𝑦 ∧‪ ، 𝑃𝑃 𝑥𝑥 34‬هو‪:‬‬ ‫بالرمز‬ ‫ونرمز له‬
‫𝑦𝑦 𝑃𝑃‬ ‫احلدثني ‪.𝑃𝑃x‬و ‪ y‬مع بعضهام‪،‬‬
‫)𝑦𝑦|𝑥𝑥(𝑃𝑃 ∗‬ ‫وقوع≠ 𝑦𝑦 𝑥𝑥‬ ‫‪34‬‬
‫ھﻮ‪:‬‬
‫)𝑥𝑥(𝑃𝑃‬ ‫احتامل‬
‫ﻗﺒﻞ ﻣﻌﺮﻓﺘﻨﺎ ﺑﻮﻗﻮعŸ𝑦𝑦 Ÿ‪𝑦𝑦 ،‬أي‪،‬‬
‫‪34‬‬
‫)𝑦𝑦|𝑥𝑥(𝑃𝑃 ∗ 𝑦𝑦 𝑃𝑃 = 𝑦𝑦 ∧ 𝑥𝑥 𝑃𝑃‬

‫تعميمهاﯾﻤﻜﻦ ﺗﻌﻤﯿﻤﮭﺎ‬ ‫يمكن‬


‫ﺮح‪ ،‬وﻟﻜﻦ‬ ‫ولكن اﻟﺸ‬
‫الرشح‪ ،‬ﺗﺒﺴﯿﻂ‬ ‫تبسيط‬
‫ﻓﻘﻂ ﺑﮭﺪف‬ ‫هبدف‬
‫ﺣﺪﺛﯿﻦ‬ ‫فقطﻋﻠﻰ‬ ‫حدثني‬
‫أﻋﻼه‬ ‫أعاله عىل‬
‫اﻟﻘﻮاﻋﺪ‬ ‫وضعنا القواعدوﺿﻌﻨﺎ‬
‫بنفس املنهجية عىل أكثر من حدثني‪ .‬تُستخدم القواعد أعاله ملعاجلة الظواهر اللغوية‬
‫ﺑﻨﻔﺲ اﻟﻤﻨﮭﺠﯿﺔ ﻋﻠﻰ أﻛﺜﺮ ﻣﻦ ﺣﺪﺛﯿﻦ‪ .‬ﺗُﺴﺘﺨﺪم اﻟﻘﻮاﻋﺪ أﻋﻼه ﻟﻤﻌﺎﻟﺠﺔ اﻟﻈﻮاھﺮ‬
‫ﺗﻌﻤﯿﻤﮭﺎ‬
‫الذي له‬ ‫باختيارﯾﻤﻜﻦ‬
‫احلدث‬ ‫وذلك وﻟﻜﻦ‬
‫‪)Reasoning‬اﻟﺸﺮح‪،‬‬
‫‪ under‬ﺑﮭﺪف ﺗﺒﺴﯿﻂ‬ ‫ﺣﺪﺛﯿﻦ ﻓﻘﻂ‬ ‫اﻟﻘﻮاﻋﺪ (أﻋﻼه ﻋﻠﻰ‬
‫‪Uncertainty‬‬ ‫وﺿﻌﻨﺎ‬
‫عدم اليقني‬ ‫مع‬
‫اﻟﻠﻐﻮﯾﺔ ﻣﻊ ﻋﺪم اﻟﯿﻘﯿﻦ )‪ (Reasoning under Uncertainty‬وذﻟﻚ ﺑﺎﺧﺘﯿﺎر‬
‫اﻟﻈﻮاھﺮ‬
‫القراءتني‪،‬‬ ‫ﻟﻤﻌﺎﻟﺠﺔ‬
‫احتامل‬ ‫حساب‬ ‫أﻋﻼه‬
‫اﻟﻘﻮاﻋﺪفعند‬ ‫ﺴﺘﺨﺪم‬
‫الرتكيبي‪،‬‬ ‫ُ‬ ‫ﺣﺪﺛﯿﻦ‪ .‬ﺗ‬
‫الغموض‬ ‫أﻛﺜﺮإىلﻣﻦمثال‬ ‫األكرب‪.‬ﻋﻠﻰ‬
‫فبالعودة‬ ‫اﻟﻤﻨﮭﺠﯿﺔ‬ ‫ﺑﻨﻔﺲ‬
‫االحتامل‬
‫اﻟﺤﺪث اﻟﺬي ﻟﮫ اﻻﺣﺘﻤﺎل اﻷﻛﺒﺮ‪ .‬ﻓﺒﺎﻟﻌﻮدة إﻟﻰ ﻣﺜﺎل اﻟﻐﻤﻮض اﻟﺘﺮﻛﯿﺒﻲ‪ ،‬ﻓﻌﻨﺪ‬
‫‪ (Reasoning under Uncertainty‬وذﻟﻚ ﺑﺎﺧﺘﯿﺎر‬ ‫الشائعة‪:‬‬ ‫القراءة‬
‫اﻟﯿﻘﯿﻦ )‬ ‫سنختارﻋﺪم‬ ‫فإننا‬
‫اﻟﻠﻐﻮﯾﺔ ﻣﻊ‬
‫ﺣﺴﺎب اﺣﺘﻤﺎل اﻟﻘﺮاءﺗﯿﻦ‪ ،‬ﻓﺈﻧﻨﺎ ﺳﻨﺨﺘﺎر اﻟﻘﺮاءة اﻟﺸﺎﺋﻌﺔ‪:‬‬
‫اﻟﻐﻤﻮض اﻟﺘﺮﻛﯿﺒﻲ‪ ،‬ﻓﻌﻨﺪ‬ ‫رجل) ﻣﺜﺎل‬
‫(جالسا) ] }‬ ‫ﻓﺒﺎﻟﻌﻮدة إﻟﻰ‬
‫ت) [ (الـ‬‫اﻷﻛﺒﺮ‪.‬‬
‫اﻻﺣﺘﻤﺎل(رأى‬
‫{‬ ‫اﻟﺤﺪث اﻟﺬي ﻟﮫ‬
‫رﺟﻞ( )ﺟﺎﻟﺴﺎ( [ {‬ ‫القراءة)اﻟـ‬
‫الشاذة‪.‬‬ ‫حدوث ت( ]‬
‫)رأى‬
‫اﻟﺸﺎﺋﻌﺔ‪:‬‬ ‫احتامل }‬
‫اﻟﻘﺮاءة‬ ‫ﻓﺈﻧﻨﺎمنﺳﻨﺨﺘﺎر‬
‫اﻟﻘﺮاءﺗﯿﻦ‪،‬أكرب‬
‫احتامل حدوثها‬
‫ألن اﺣﺘﻤﺎل‬
‫ﺣﺴﺎب‬

‫‪Probability‬‬ ‫االحتاميل (‬
‫اﻟﺸﺎذة‪.‬‬ ‫التوزيع اﻟﻘﺮاءة‬
‫ﺣﺪوث‬ ‫استقراء دالة‬
‫اﺣﺘﻤﺎل‬
‫)ﺟﺎﻟﺴﺎ( [ {‬ ‫اآللة يف‬
‫أﻛﺒﺮ ﻣﻦ‬
‫رﺟﻞ(‬ ‫)اﻟـ‬ ‫تعلم‬
‫ﺣﺪوﺛﮭﺎ‬
‫ت( ]‬ ‫خوارزميات‬
‫ويأيت دور ﻷن}‬
‫اﺣﺘﻤﺎل‬
‫)رأى‬

‫اﻟﺘﻮزﯾﻊ اﻻﺣﺘﻤﺎﻟﻲ‬ ‫اﺳﺘﻘﺮاءستق َّلة‬


‫داﻟﺔواملرتبطة‬ ‫األحداث ا ُمل‬ ‫بتحديد‬
‫اﻟﺸﺎذة‪ .‬ﻓﻲ‬ ‫ﺣﺪوث وذلك‬
‫ﺗﻌﻠﻢ اﻵﻟﺔ‬ ‫ُعطى هلا‪،‬‬
‫ﺧﻮارزﻣﯿﺎتاﻟﻘﺮاءة‬
‫ﻣﻦالتي ت‬
‫األمثلة‬
‫دوراﺣﺘﻤﺎل‬ ‫منوﯾﺄﺗﻲ‬
‫أﻛﺒﺮ‬
‫‪)Distribution‬‬
‫ﻷن اﺣﺘﻤﺎل ﺣﺪوﺛﮭﺎ‬
‫يف البيانات ا ُملعطاة‪ ،‬وتُعرف هذه املهمة بتعلم بنية التوزيع االحتاميل (‪Structure‬‬
‫َ‬
‫‪ (Probability Distribution‬ﻣﻦ اﻷﻣﺜﻠﺔ اﻟﺘﻲ ﺗُﻌﻄﻰ ﻟﮭﺎ‪ ،‬وذﻟﻚ ﺑﺘﺤﺪﯾﺪ‬ ‫)‬
‫دور)‪ ،‬وكذلك حتديد القيم ﱠ االحتاملية لألحداث‪ ،‬وتعرف هذه املهمة بتقدير‬
‫اﻻﺣﺘﻤﺎﻟﻲ‬ ‫اﻟﺘﻮزﯾﻊ‬ ‫داﻟﺔ‬ ‫اﺳﺘﻘﺮاء‬ ‫ﻓﻲ‬ ‫اﻵﻟﺔ‬ ‫ﺗﻌﻠﻢ‬ ‫ﺧﻮارزﻣﯿﺎت‬ ‫وﯾﺄﺗﻲ‬
‫‪Learning‬‬
‫ُ‬
‫اﻷﺣﺪاث اﻟ ُﻤﺴﺘﻘﻠﺔ واﻟﻤﺮﺗﺒﻄﺔ ﻓﻲ اﻟﺒﯿﺎﻧﺎت اﻟ ُﻤﻌﻄﺎة‪ ،‬وﺗﻌ َﺮف ھﺬه اﻟﻤﮭﻤﺔ‬
‫ﺑﺘﺤﺪﯾﺪ‬
‫التوزيع‬ ‫وذﻟﻚ بنية‬
‫ﻟﮭﺎ‪ ،‬تكون‬ ‫اﻟﺘﻲمنﺗُﻌﻄﻰ‬
‫االحيان‪،‬‬ ‫اﻷﻣﺜﻠﺔكثري‬
‫ﻣﻦ)‪ .‬ويف‬ ‫‪(Probability‬‬
‫‪Parameter‬‬ ‫ا) ُملعطيات (‬
‫‪Distribution‬‬
‫‪Estimation‬‬
‫ﱠ ����� ���� ������� ُ ��������� ) ‪Structure‬‬
‫لألحداث‬
‫االحتامليةاﻟﻤﮭﻤﺔ‬
‫القيمف ھﺬه‬
‫استقراءوﺗﻌ َﺮ‬
‫عىلﻌﻄﺎة‪،‬‬
‫اآللة اﻟ ُﻤ‬ ‫استخدام تعلم‬
‫اﻟﺒﯿﺎﻧﺎت‬ ‫معروفة‪،‬ﺔويقترص‬
‫واﻟﻤﺮﺗﺒﻄﺔ ﻓﻲ‬ ‫االحتاميل اﻟ ُﻤﺴﺘﻘﻠ‬
‫اﻷﺣﺪاث‬
‫‪ ،(Learning‬وﻛﺬﻟﻚ ﺗﺤﺪﯾﺪ اﻟﻘﯿﻢ اﻻﺣﺘﻤﺎﻟﯿﺔ ﻟﻸﺣﺪاث‪ ،‬وﺗﻌﺮف ھﺬه اﻟﻤﮭﻤﺔ‬
‫‪Structure‬وهي‬
‫املستخدمة بكثرة‬ ‫أحد النامذج االحتاملية‬
‫��������� )‬ ‫����ُلقي الضوء عىل‬
‫�������‬ ‫اجلزء التايل‪ ،‬ن‬ ‫فقط‪ .‬ويف‬
‫�����‬
‫������ ��������� )‪ .(Parameter Estimation‬وﻓﻲ ﻛﺜﯿﺮ‬
‫اخلفية‪ .‬ﺗﺤﺪﯾﺪ اﻟﻘﯿﻢ اﻻﺣﺘﻤﺎﻟﯿﺔ ﻟﻸﺣﺪاث‪ ،‬وﺗﻌﺮف ھﺬه اﻟﻤﮭﻤﺔ‬ ‫ماركوف وﻛﺬﻟﻚ‬
‫‪،(Learning‬‬‫نامذج‬
‫ﻣﻦ اﻻﺣﯿﺎن‪ ،‬ﺗﻜﻮن ﺑﻨﯿﺔ اﻟﺘﻮزﯾﻊ اﻻﺣﺘﻤﺎﻟﻲ ﻣﻌﺮوﻓﺔ‪ ،‬وﯾﻘﺘﺼﺮ اﺳﺘﺨﺪام ﺗﻌﻠﻢ اﻵﻟﺔ‬
‫������ ��������� )‪ .(Parameter Estimation‬وﻓﻲ ﻛﺜﯿﺮ‬
‫ﻋﻠﻰ اﺳﺘﻘﺮاء اﻟﻘﯿﻢ اﻻﺣﺘﻤﺎﻟﯿﺔ ﻟﻸﺣﺪاث ﻓﻘﻂ‪ .‬وﻓﻲ اﻟﺠﺰء اﻟﺘﺎﻟﻲ‪ ،‬ﻧُﻠﻘﻲ اﻟﻀﻮء ﻋﻠﻰ‬
‫ﻣﻌﺮوﻓﺔ‪ ،‬وﯾﻘﺘﺼﺮ اﺳﺘﺨﺪام ﺗﻌﻠﻢ اﻵﻟﺔ‬ ‫‪-34-‬‬‫ﻣﻦ اﻻﺣﯿﺎن‪ ،‬ﺗﻜﻮن ﺑﻨﯿﺔ اﻟﺘﻮزﯾﻊ اﻻﺣﺘﻤﺎﻟﻲ‬
‫أﺣﺪ اﻟﻨﻤﺎذج اﻻﺣﺘﻤﺎﻟﯿﺔ اﻟﻤﺴﺘﺨﺪﻣﺔ ﺑﻜﺜﺮة وھﻲ ُﻧﻤﺎذج ﻣﺎرﻛﻮف اﻟﺨﻔﯿﺔ‪.‬‬
‫ﻋﻠﻰ اﺳﺘﻘﺮاء اﻟﻘﯿﻢ اﻻﺣﺘﻤﺎﻟﯿﺔ ﻟﻸﺣﺪاث ﻓﻘﻂ‪ .‬وﻓﻲ اﻟﺠﺰء اﻟﺘﺎﻟﻲ‪ ،‬ﻧﻠﻘﻲ اﻟﻀﻮء ﻋﻠﻰ‬
‫اﻟﺨﻔﯿﺔ‬
‫اﻟﺨﻔﯿﺔ‬ ‫ﻣﺎرﻛﻮف‬
‫ﻣﺎرﻛﻮف‬ ‫ﻧﻤﺎذجﻧﻤﺎذج‬
‫‪3.1 3.1‬‬
‫‪ 3.1‬ﻧﻤﺎذج ﻣﺎرﻛﻮف اﻟﺨﻔﯿﺔ‬ ‫‪ 3.1‬ﻧﻤﺎذج ﻣﺎرﻛﻮف اﻟﺨﻔﯿﺔ‬

‫ﻧﻤﺎذجاﻟﺨﻔﯿﺔ )‪HMMs‬‬ ‫ﻣﺎرﻛﻮف‬ ‫ھﻲ ﻧﻤﺎذج‬ ‫ﻧﻤﺎذج‬ ‫‪ (Hidden‬ھﻲ‬


‫‪(Hidden‬‬ ‫‪Markov‬‬ ‫‪Markov‬‬ ‫‪Models‬‬ ‫‪Models‬‬ ‫‪–HMMs‬‬ ‫‪–HMMs‬‬ ‫اﻟﺨﻔﯿﺔ )‬ ‫ﻣﺎرﻛﻮف )‬
‫اﻟﺨﻔﯿﺔ‬
‫ﻣﺎرﻛﻮف ‪3.1‬‬
‫ﻧﻤﺎذج ﻧﻤﺎذج‬
‫ﻧﻤﺎذج( ھﻲ‬
‫‪Hidden Markov Models –HMMs‬‬ ‫اﻟﺨﻔﯿﺔ‬ ‫ﻣﺎرﻛﻮف )‬
‫اﻟﺨﻔﯿﺔاﻟﺨﻔﯿﺔ‬ ‫ﻣﺎرﻛﻮف‬ ‫ﻧﻤﺎذج‬ ‫ﻧﻤﺎذج‬
‫ﻣﺎرﻛﻮف‬ ‫‪ 3.1‬ﻧﻤﺎذج‬
‫ﻧﻤﺎذج‬ ‫‪ (Rabiner‬ﺗُ‬ ‫‪(Rabiner‬‬
‫‪&Markov‬‬ ‫اﻟﺨﺼﺎﺋﺺ &‬
‫اﻟﺘﺎﻟﯿﺔ‬ ‫اﻟﺘﺎﻟﯿﺔ‬ ‫اﻟﺨﺼﺎﺋﺺ‬ ‫ﻟﮭﺎ‬ ‫اخلفية‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬‫اﺣﺘﻤﺎﻟﯿﺔ ﻟﮭﺎ‬ ‫ماركوف‬
‫ﺗﻮزﯾﻌﺎت)‬
‫‪ 3.1‬نامذج‬
‫ﺗﻮزﯾﻌﺎت‬
‫ﻟﺘﻤﺜﯿﻞ‬ ‫ﻣﺎرﻛﻮفﺗُﻧﻤﺎذج‬
‫ﻟﺘﻤﺜﯿﻞ‬
‫ﺴﺘﺨﺪم‬ ‫ﺴﺘﺨﺪم‬ ‫اﺣﺘﻤﺎﻟﯿﺔ ﺗُ‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬
‫ھﻲﺴﺘﺨﺪم‬
‫‪(Rabiner‬ﻟﺘﻤﺜﯿﻞ ﺗﻮزﯾﻌﺎت ا‬ ‫&(‬‫‪Hidden‬‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬ ‫ﻧﻤﺎذج‬
‫ھﻲ اﻟﺘﺎﻟﯿﺔ‬ ‫اﻟﺨﺼﺎﺋﺺ‬ ‫‪(Hidden‬‬ ‫‪Models‬‬ ‫‪Markov‬‬
‫اﺣﺘﻤﺎﻟﯿﺔ ﻟﮭﺎ‬ ‫‪–HMMs‬‬ ‫ﺗﻮزﯾﻌﺎت‬ ‫‪Models‬‬ ‫اﻟﺨﻔﯿﺔ‬
‫ﻟﺘﻤﺜﯿﻞ‬ ‫‪–HMMs‬‬ ‫ﻣﺎرﻛﻮف‬
‫ﺴﺘﺨﺪم‬ ‫اﺣﺘﻤﺎﻟﯿﺔ) ﺗُ‬
‫اﻟﺨﻔﯿﺔ‬ ‫ﻧﻤﺎذج‬
‫‪ )Hidden Markov‬هي نامذج احتاملية‬ ‫‪:‬‬‫‪Juang,‬‬ ‫‪:‬‬ ‫‪Models‬‬
‫‪Juang,‬‬
‫;‪1986‬‬ ‫‪–HMMs‬‬
‫;‪1986‬‬
‫‪Cappé,‬‬ ‫‪Cappé,‬‬‫‪Moulines,‬اخلفية (‬
‫‪Moulines,‬‬ ‫ماركوف‬ ‫&‬ ‫نامذج‬
‫‪Ryden,‬‬ ‫&‬ ‫‪Ryden,‬‬
‫)‪2007‬‬ ‫)‪2007‬‬
‫‪(Rabiner‬‬
‫‪Moulines, & Ryden,‬‬ ‫‪& (Rabiner‬‬
‫)‪2007‬‬ ‫اﻟﺘﺎﻟﯿﺔ‬
‫‪:Juang,‬‬ ‫اﻟﺨﺼﺎﺋﺺ‬ ‫اﻟﺘﺎﻟﯿﺔ &‬
‫;‪1986‬‬ ‫ﻟﮭﺎ‬ ‫اﺣﺘﻤﺎﻟﯿﺔ‬
‫‪Cappé,‬‬‫اﻟﺨﺼﺎﺋﺺ‬ ‫ﺗﻮزﯾﻌﺎت‬
‫‪Moulines,‬‬ ‫اﺣﺘﻤﺎﻟﯿﺔ ﻟﮭﺎ‬ ‫ﻟﺘﻤﺜﯿﻞ‬
‫‪& Ryden,‬‬ ‫)‪ 2007‬ﺗُﺴﺘﺨﺪم‬
‫ﺗﻮزﯾﻌﺎت‬ ‫اﺣﺘﻤﺎﻟﯿﺔ‬
‫اﺣﺘﻤﺎﻟﯿﺔ ﺗُﺴﺘﺨﺪم ﻟﺘﻤﺜﯿﻞ‬
‫تُستخدم لتمثيل توزيعات احتاملية هلا اخلصائص التالية (;‪Rabiner & Juang, 1986‬‬
‫ﻄﻠﻖھﻨﺎﯾﻮﺟﺪ‬
‫ﻋﻠﯿﮭﺎ •‬‫‪:Juang,‬ھﻨﺎ‬
‫وﺳﻨُﻋﻠﯿﮭﺎ‬ ‫;‪1986‬‬ ‫وﺳ‪:‬ﻨُ‬
‫ﻣﺤﺴﻮﺳﺔ(‪،‬ﻄﻠﻖ‬ ‫‪Cappé,‬‬
‫ﻣﺤﺴﻮﺳﺔ(‪،‬‬ ‫‪Moulines,‬‬ ‫ﺘﺴﻠﺴﻠﺔ )ﻏﯿﺮ‬ ‫&‬‫ﺧﻔﯿﺔ‬ ‫‪Ryden,‬‬
‫ﺘﺴﻠﺴﻠﺔﻣ‬ ‫)‪2007‬‬
‫أﺣﺪاث& ُﻣ‬ ‫ﯾﻮﺟﺪ•‬
‫ﻄﻠﻖ وﺳﻨُ‬ ‫‪Juang,‬‬ ‫)ﻏﯿﺮ‬
‫;‪1986‬‬ ‫ﺧﻔﯿﺔ‬
‫‪Cappé,‬‬ ‫‪Moulines,‬‬ ‫أﺣﺪاث‬ ‫ﯾﻮﺟﺪ‬
‫‪Ryden,‬‬ ‫)‪2007‬‬
‫•‬
‫أﺣﺪاث ُﻣﺘﺴﻠﺴﻠﺔ ﺧ‬
‫ﻋﻠﯿﮭﺎ ھﻨﺎ‬ ‫‪):)Cappé,‬ﻏﯿﺮ ﻣﺤﺴﻮﺳﺔ(‪،‬‬ ‫ﺘﺴﻠﺴﻠﺔ ﺧﻔﯿﺔ‬ ‫‪Moulines,‬‬ ‫أﺣﺪاث ُﻣ‬ ‫‪&ُ Ryden,‬‬
‫‪ •2007‬ﯾﻮﺟﺪ‬
‫ﻋﻠﯿﮭﺎ ھﻨﺎ‬ ‫ﻗﺒﻠﮭﺎ‪.‬‬
‫اﻟﺘﻲﻄﻠﻖ‬‫ﻗﺒﻠﮭﺎ‪.‬‬
‫وﺳﻨُ‬‫ﻟﺤﺎﻟﺔ‬‫اﻟﺘﻲ‬ ‫ﻟﺤﺎﻟﺔ ﺑﺎ‬
‫ﻣﺤﺴﻮﺳﺔ(‪،‬‬ ‫ﻣﺮﺗﺒﻄﺔ‬ ‫ﻣﺮﺗﺒﻄﺔ ﺑﺎ‬
‫ﺧﻔﯿﺔﻛﻞ ﺣﺎﻟﺔ‬ ‫ﺣﺎﻟﺔ‬‫ﺗﻜﻮن‬ ‫ﻛﻞ‬ ‫ﺑﺤﯿﺚ(‪ ،‬ﺗﻜﻮن‬
‫ﺑﺤﯿﺚ‬ ‫‪States‬‬ ‫‪،(States‬‬‫�����‬
‫ﯾﻮﺟﺪ)‬ ‫����� )‬
‫�����‬
‫حاالت )‪ ،(States‬ﺑﺤ‬
‫ﻗﺒﻠﮭﺎ‪.‬‬ ‫عليها هنا‬
‫اﻟﺘﻲ‬ ‫ﻟﺤﺎﻟﺔ‬ ‫ھﻨﺎ‬
‫ُطلقﺑﺎ‬ ‫ﻋﻠﯿﮭﺎ‬
‫وسن‬
‫ﻣﺮﺗﺒﻄﺔ‬ ‫ﻛﻞﻄﻠﻖ‬
‫حمسوسة)‪،‬‬
‫ﺣﺎﻟﺔ‬ ‫)ﻏﯿﺮوﺳﻨُ‬ ‫ﻣﺤﺴﻮﺳﺔ(‪،‬‬
‫(غري‬
‫ﺗﻜﻮن‬ ‫ﺑﺤﯿﺚ‬‫تسلسلة(‪،‬خفية‬ ‫ﺘﺴﻠﺴﻠﺔ‬
‫ﺧﻔﯿﺔ) ُم ُﻣ)ﻏﯿﺮ‬
‫‪States‬‬ ‫أﺣﺪاث‬
‫أحداث‬
‫�����‬ ‫ﺘﺴﻠﺴﻠﺔ‬
‫يوجد‬ ‫أﺣﺪاث• Ÿ ُﻣ‬
‫Ÿ‬ ‫• ﯾﻮﺟﺪ‬
‫ﻗﺒﻠﮭﺎ‪.‬‬ ‫ﻓﻲ‬
‫واﻟﺘﻲﺑﺎﺗﻘﻊ ﻓﻲ‬ ‫ﺗﻘﻊ‬ ‫واﻟﺘﻲ‬
‫!!!𝑠𝑠‬ ‫𝑠𝑠‬
‫اﻟﺤﺎﻟﺔ‬ ‫اﻟﺤﺎﻟﺔ‬
‫ﺑﺤﯿﺚ‪ ،‬ﻓﺈن‬ ‫ﻓﺈن‬
‫اﻟﺰﻣﻦ 𝑡𝑡‬ ‫‪،‬‬ ‫𝑡𝑡‬ ‫اﻟﺰﻣﻦ‬
‫وﻗﻌﺖ ﻓﻲ‬ ‫ﻓﻲ‬
‫�����𝑠𝑠)‬ ‫ﻓﻠﻮ ﻓﻠﻮ !ﻛﺎﻧﺖ !𝑠𝑠 ﺣﺎﻟﺔ‬
‫وﻗﻌﺖ‬ ‫ﺣﺎﻟﺔ‬ ‫𝑠𝑠‬ ‫ﻛﺎﻧﺖ‬
‫ﻓﻲ!𝑠𝑠 ﺣﺎﻟﺔ وﻗﻌﺖ ﻓ‬ ‫اﻟﺘﻲﺗﻘﻊ‬
‫ﻛﺎﻧﺖ‬
‫كانت‬ ‫ﻟﺤﺎﻟﺔفلو‬
‫ﻓﻠﻮ‬
‫واﻟﺘﻲ‬‫قبلها‪.‬‬
‫ﻗﺒﻠﮭﺎ‪𝑠𝑠.‬‬‫ﻣﺮﺗﺒﻄﺔ‬
‫التي!!!‬ ‫اﻟﺤﺎﻟﺔ‬ ‫ﺣﺎﻟﺔ‬
‫باحلالةاﻟﺘﻲ‬
‫ﻟﺤﺎﻟﺔ‬ ‫ﻛﻞ‬
‫ﺗﻜﻮن!!!‬
‫مرتبطةﺑﺎ ﻓﺈن‬
‫ﻣﺮﺗﺒﻄﺔ𝑡𝑡‪،‬‬
‫اﻟﺰﻣﻦ‬ ‫حالة‬ ‫وﻗﻌﺖكلﻓﻲ‬
‫ﺣﺎﻟﺔ‬ ‫تكون(‪،‬‬
‫ﻛﻞ‬ ‫‪States‬‬
‫ﺗﻜﻮن‬ ‫ﺣﺎﻟﺔ‬‫بحيث‬‫ﺑﺤﯿﺚ‬ ‫)‪! ،‬‬ ‫‪،(States‬‬
‫ﻛﺎﻧﺖ‬ ‫‪States‬‬‫����� ) (ﻓﻠﻮ‬
‫أن‪ :‬أي‬ ‫ﻋﻨﮭﺎ‪.‬ﻠﱠﺔأي‬ ‫ﱠ‬
‫وﻗﻌﺖﻠﺔ‬‫ﻣﺴﺘﻘ‬ ‫ﻏﯿﺮ‬ ‫يف𝑡𝑡 ‪1‬‬ ‫ﻣﺒﺎﺷﺮة‬ ‫اﻟﺰﻣﻦﺑﻌﺪه‬
‫اﻟﺰﻣﻦ اﻟﺬي‬
‫بعدهﺑﻌﺪه ﻣﺒﺎﺷﺮة ‪+ 1‬‬
‫الذي ﻓﻲ‬
‫اﻟﺬي‬ ‫ﺗﻘﻊ‬
‫اﻟﺰﻣﻦ‬ ‫ﻓﻲ𝑠𝑠الزمن‬
‫واﻟﺘﻲ‬ ‫يف‬
‫تقع!!!‬
‫أن‪:‬‬ ‫اﻟﺤﺎﻟﺔأي‬
‫ﺗﻘﻊ‬ ‫ﻓﺈنأن‪:‬‬
‫والتي‬
‫واﻟﺘﻲ‬
‫ﻋﻨﮭﺎ‪.‬‬ ‫ﻣﺴﺘﻘﻠﱠ𝑠𝑠ﺔ‬‫ﻋﻨﮭﺎ‪،.‬‬ ‫احلالة‬
‫اﻟﺰﻣﻦ 𝑡𝑡‬
‫ﻏﯿﺮ !!!‬ ‫اﻟﺤﺎﻟﺔ‬‫ﻣﺴﺘﻘ‬
‫‪𝑡𝑡 +‬‬ ‫ﻏﯿﺮﻓﺈن‬
‫فإن‬
‫ﻓﻲ‬ ‫الزمن𝑡𝑡 𝑡𝑡‪t‬‬
‫ﻣﺒﺎﺷﺮة‪1 ،،‬‬
‫‪+‬‬ ‫ﺣﺎﻟﺔ‬
‫اﻟﺰﻣﻦ‬ ‫ﺑﻌﺪه‬ ‫وقعت!‪𝑠𝑠+‬‬
‫ﻣﺒﺎﺷﺮة‬
‫ﻓﻲ‬
‫ﻛﺎﻧﺖ‪1‬‬
‫وﻗﻌﺖ‬
‫اﻟﺬي‬
‫حالةﺑﻌﺪه‬
‫اﻟﺰﻣﻦ‬
‫اﻟﺬي‬
‫ﻓﻠﻮ‬
‫ﺣﺎﻟﺔ‬ ‫ﻓﻠﻮ ﻛﺎﻧﺖ !𝑠𝑠‬
‫ﻣﺴﺘﻘﻠﱠﺔ ﻋﻨﮭﺎ‪ .‬أي أن‪:‬‬ ‫أن‪𝑃𝑃:‬أن‪:‬‬ ‫أي‬‫ﻏﯿﺮ‬ ‫عنها‪𝑃𝑃𝑡𝑡 .‬أي‬
‫ﻋﻨﮭﺎ‪𝑠𝑠 .‬‬ ‫‪+‬‬ ‫ﻣﺴﺘﻘ‪1‬ﻠﱠ)‬
‫!!!ﺔ!𝑠𝑠𝑠𝑠‬ ‫مستق𝑠𝑠 َّلة‬
‫ﻣﺒﺎﺷﺮة‬
‫≠‬ ‫≠ )‬
‫ﻏﯿﺮ!‬
‫𝑠𝑠(𝑃𝑃‬ ‫غري‬
‫ﺑﻌﺪه‬
‫!!!𝑡𝑡‬ ‫اﻟﺬي)‪t‬‬
‫𝑠𝑠(𝑃𝑃‬
‫‪+‬‬ ‫!!!‪1+1‬‬ ‫مبارشة‬
‫اﻟﺰﻣﻦ‬
‫ﻣﺒﺎﺷﺮة‬‫اﻟﺰﻣﻦ اﻟﺬي ﺑﻌﺪه )‬
‫) !!!𝑠𝑠(‬ ‫!!! ) !𝑠𝑠 !!!𝑠𝑠 𝑃𝑃‬ ‫𝑠𝑠(𝑃𝑃 ≠‬ ‫) !!!‬
‫ھﻨﺎ𝑠𝑠 𝑃𝑃‬ ‫ھﻨﺎ!𝑠𝑠‬
‫وﺳﻨﻄﻠﻖ )‬
‫≠‬ ‫𝑠𝑠(𝑃𝑃‬ ‫≠ ))!𝑠𝑠‬
‫أﺣﺪاث ظﺎھﺮة )ﻣﺤﺴﻮ‬‫��������‬ ‫�������� • ﯾ‬
‫��������ُﻮﺟﺪ‬ ‫ﻋﻠﯿﮭﺎ!!!‬
‫)ﻣﺤﺴﻮﺳﺔ(‪ ،‬وﺳﻨﻄﻠﻖ ﻋﻠﯿﮭﺎ ھﻨﺎ‬
‫ﻋﻠﯿﮭﺎ‬
‫𝑃𝑃‬ ‫!!!𝑠𝑠‬ ‫وﺳﻨﻄﻠﻖ‬
‫)ﻣﺤﺴﻮﺳﺔ(‪،‬‬
‫!!!‬ ‫)ﻣﺤﺴﻮﺳﺔ(‪،‬‬
‫أﺣﺪاث ظﺎھﺮة‬
‫𝑠𝑠(𝑃𝑃‬ ‫ظﺎھﺮة‬
‫ُﻮﺟﺪ!!!‬‫ظﺎھﺮة)‬
‫أﺣﺪاث أﺣﺪاث‬
‫• ﯾ‬
‫• ﯾُﻮﺟﺪ• ﯾُﻮﺟﺪ‬
‫‪،)Emissions‬‬
‫��������‬ ‫انبعاثات (‬
‫ﺑﺎﻟﺤﺎﻟﺔ‬ ‫ﺑﺎﻟﺤﺎﻟﺔ‬
‫ﻣﺮﺗﺒﻂ‬ ‫هناھﻨﺎ‬ ‫عليها‬
‫ﻣﺮﺗﺒﻂ𝑡𝑡‬
‫زﻣﻦ ﻣﺎ‬
‫ﻋﻠﯿﮭﺎ‬ ‫وسنطلق𝑡𝑡‬‫زﻣﻦﻓﻲﻣﺎ‬ ‫(حمسوسة)‪،‬‬
‫ﻓﻲ‬
‫اﻧﺒﻌﺎث‬
‫)ﻣﺤﺴﻮﺳﺔ(‪𝑒𝑒 ،‬‬ ‫اﻧﺒﻌﺎث !𝑒𝑒‬ ‫ظاهرة ﻛﻞ‬ ‫ﻛﻞﻜﻮن‬ ‫أحداث‬
‫ﺑﺤﯿﺚ ﯾ‬ ‫ﻜﻮن‬ ‫وجد‬
‫ﺑﺤﯿﺚ(‪ ،‬ﯾ‬
‫‪Emissions‬‬ ‫(‪،‬ي‬
‫‪ُ Ÿ Emissions‬‬
‫) Ÿ‬ ‫)‬
‫‪ ،(Emissions‬ﺑﺤﯿﺚ ﯾﻜﻮن‬
‫ﺑﺎﻟﺤﺎﻟﺔ‬ ‫�������� 𝑡𝑡 )‬
‫ﻣﺮﺗﺒﻂ‬ ‫زﻣﻦ ﻣﺎ‬ ‫وﺳﻨﻄﻠﻖ!𝑒𝑒 ﻓﻲ‬ ‫اﻧﺒﻌﺎث‬ ‫ﻛﻞ! ھﻨﺎ‬
‫ﻋﻠﯿﮭﺎ‬ ‫وﺳﻨﻄﻠﻖﻜﻮن‬ ‫ﺑﺤﯿﺚ ﯾ‬ ‫ظﺎھﺮة‬
‫)ﻣﺤﺴﻮﺳﺔ(‪،‬‬ ‫أﺣﺪاث‬
‫‪،(Emissions‬‬ ‫ُﻮﺟﺪ‬
‫ظﺎھﺮة‬‫• ﯾُﻮﺟﺪ أﺣﺪاث • ﯾ)‬
‫أن‪ et :‬يف زمن ما ‪ t‬مرتبط باحلالة اخلفية يف نفس الزمن ‪.S‬‬ ‫انبعاث‬ ‫ﻛﻞأي‬ ‫كل‪.‬‬
‫أن‪:‬‬ ‫يكون‬
‫أي‬
‫اﻟﺰﻣﻦ‬
‫‪𝑠𝑠Emissions‬‬ ‫بحيث!𝑠𝑠‪.‬‬
‫ﻧﻔﺲﻓﻲاﻟﺰﻣﻦ‬
‫ﻧﻔﺲ‬ ‫اﻟﺨﻔﯿﺔ ﻓﻲ‬
‫اﻟﺨﻔﯿﺔ‬
‫ﺑﺎﻟﺤﺎﻟﺔ‪t‬ﻧﻔﺲ اﻟﺰﻣﻦ !𝑠𝑠‪ .‬أي‬
‫اﻟﺨﻔﯿﺔ ﻓﻲ‬‫ﺑﺎﻟﺤﺎﻟﺔ𝑡𝑡 ﻣﺮﺗﺒﻂ‬‫ﻣﺮﺗﺒﻂزﻣﻦ ﻣﺎ‬ ‫ﻣﺎ !𝑡𝑡𝑒𝑒 ﻓﻲ‬ ‫اﻧﺒﻌﺎث‬‫أن‪:‬زﻣﻦ‬ ‫ﻛﻞ‬
‫أي ﻓﻲ‬ ‫ﻜﻮن‬
‫اﻧﺒﻌﺎثﯾ𝑠𝑠‪𝑒𝑒! .‬‬ ‫ﺑﺤﯿﺚ‬‫اﻟﺰﻣﻦ‬ ‫(‪،‬‬ ‫ﻜﻮن!‬
‫ﻧﻔﺲ‬ ‫ﻓﻲ‬‫ﯾ‬ ‫)‪)،(Emissions‬اﻟﺨﻔﯿﺔ‬
‫ﺑﺤﯿﺚ‬
‫!‬
‫أي أن‪:‬‬
‫) !𝑜𝑜(‬ ‫أن‪𝑃𝑃 :‬‬ ‫أي𝑠𝑠 𝑜𝑜‬‫𝑜𝑜) !𝑃𝑃‬ ‫اﻟﺰﻣﻦ𝑠𝑠 !!‬
‫≠𝑠𝑠‪.‬‬ ‫أن‪! ) :‬‬
‫𝑜𝑜(𝑃𝑃‬ ‫ﻧﻔﺲ) !≠‬
‫ﻓﻲ‪ .‬أي‬
‫𝑜𝑜(𝑃𝑃‬ ‫اﻟﺨﻔﯿﺔ)!!𝑠𝑠‬
‫اﻟﺨﻔﯿﺔ ﻓﻲ ﻧﻔﺲ اﻟﺰﻣﻦ‬
‫𝑜𝑜(𝑃𝑃! ≠ ) !𝑠𝑠 !𝑜𝑜 𝑃𝑃‬ ‫)!‬
‫اﻟﺴﻠﻮك !𝑜𝑜 𝑃𝑃‬
‫)اﻟﺸﻜﻞ ‪:(2‬‬ ‫ھﺬا𝑠𝑠‬
‫ﻟﮭﺎ ) !‬ ‫ھﺬا ≠‬‫𝑜𝑜(𝑃𝑃‬ ‫ﻋﻠﻰ)!!𝑜𝑜‬
‫ﻟﮭﺎ‬ ‫آﻟﺔ‬ ‫اﻟﺨﻔﻲأﻧﮫ‬
‫ﻋﻠﻰ≠‬ ‫اﻟﺨﻔﻲ‬ ‫ﻣﺎرﻛﻮف‬ ‫ﻧﻤﻮذجﱡﻞ ﻧﻤﻮذج‬ ‫ﺗﺨﯿﱡﻞ‬‫ﯾُﻤﻜﻦ ﯾ‬
‫‪:)2‬ﯿ(‪:‬ﱡﻞ ﻧﻤﻮذج ﻣﺎرﻛﻮف اﻟﺨﻔﻲ‬ ‫ﺗﺨ‬ ‫ُﻤﻜﻦ‬
‫)اﻟﺸﻜﻞ ‪2‬‬‫(الشكل‬‫اﻟﺴﻠﻮك‪:(2‬ﯾ‬ ‫)اﻟﺸﻜﻞ‬
‫السلوك‬
‫اﻟﺴﻠﻮك‬
‫هذاھﺬا‬ ‫هلا ﻟﮭﺎ‬
‫آلة آﻟﺔ‬
‫أنهأﻧﮫ‬ ‫ﻋﻠﻰ‬
‫آﻟﺔ‬
‫أﻧﮫ 𝑃𝑃‬
‫اﻟﺨﻔﻲعىل‬
‫اخلفي‬
‫ﻣﺎرﻛﻮف𝑠𝑠‬
‫)!‬
‫ﻧﻤﻮذجماركوف‬
‫𝑜𝑜(𝑃𝑃‬‫ﻣﺎرﻛﻮف‬ ‫ﱡﻞ ) !‬
‫نموذج‬ ‫لﯿ‬ ‫ُﻤﻜﻦخت ُّيﺗﺨ‬‫مكن‬
‫ُﻤﻜﻦ ﺗﺨﯿ‬
‫ُي ﯾ‬
‫(‪ْ :‬‬ ‫)اﻟﺸﻜﻞ ْﻓﻖ‪2‬‬ ‫اﻟﺴﻠﻮكو ْ‬ ‫ھﺬا‬
‫ﻟﮭﺎ !𝑠𝑠‬ ‫آﻟﺔ ﻻﻣﺎ‬ ‫ﻣﺎأﻧﮫ‬ ‫ﻋﻠﻰ‬‫اﻟﺨﻔﻲ!𝑠𝑠ھﺬا‬ ‫ﻣﺎرﻛﻮف‬ ‫ﻧﻤﻮذج‬ ‫عندﱡﻞ‬
‫ﺗﺨﯿ‬ ‫ﻧﻤﻮذجُﻤﻜﻦ‬‫ﻋﻨﺪﱡﻞ• ﯾ‬
‫توزيعﺗﻨﺘﻘﻞ ﻣﻦ ﺣﺎﻟﺔ‬
‫ﻋﻨﺪوﺑفﮭﺎق َو ْﻓﻖ‬
‫ﺗﺸﻐﯿﻠﮭﺎ‬ ‫هبا‬
‫ﻧﺸﻌﺮ َ‬ ‫نشعر•َو‬
‫ﺣﺎﻟﺔما ‪1‬ﻣﺎ‪! S‬ال𝑠𝑠 ﻻ‬
‫ﻧﺸﻌﺮﻓﻖﺑﮭﺎ‬ ‫ﻻ ﺑ(‪:‬ﮭﺎ َ‬ ‫حالة‬
‫ﻧﺸﻌﺮ‪2‬‬
‫)اﻟﺸﻜﻞ‬
‫اﻟﺒﺪاﯾﺔ ‪𝑠𝑠S!!0‬إىلإﻟﻰ‬
‫اﻟﺴﻠﻮك𝑠𝑠‬
‫ﺣﺎﻟﺔ‬ ‫البداية‬
‫إﻟﻰ‬ ‫ﺣﺎﻟﺔ‬ ‫حالة‬
‫إﻟﻰ‬
‫ﻟﮭﺎ‬
‫ﺣﺎﻟﺔ‬
‫من𝑠𝑠آﻟﺔ‬
‫اﻟﺒﺪاﯾﺔ‬ ‫تنتقل‬
‫اﻟﺒﺪاﯾﺔ‬
‫ﺣﺎﻟﺔأﻧﮫ‬
‫ﺗﻨﺘﻘﻞ !ﻣﻦ‬
‫ﻣﻦﻋﻠﻰ‬ ‫تشغيلها‬
‫ﺣﺎﻟﺔ‬
‫اﻟﺨﻔﻲ‬
‫ﺗﺸﻐﯿﻠﮭﺎ‬
‫ﻣﻦﺗﻨﺘﻘﻞ‬
‫Ÿ•Ÿ ﻋﻨﺪ‬
‫ﻣﺎرﻛﻮف‬ ‫ﺗﻨﺘﻘﻞ‬
‫ﺗﺸﻐﯿﻠﮭﺎ‬ ‫ﺗﺸﻐﯿﻠﮭﺎ‬
‫ﻋﻨﺪ‬ ‫ُﻤﻜﻦ ﺗﺨﯿ‬
‫ﯾ •‬
‫ﻖ ْفق‬‫حمسوسا و‬ ‫انبعا ًث ً‬
‫اﻧﺒﻌﺎاﺛ‪1‬ﺎ‪!e‬‬ ‫تطلقﺛًﺎ‬ ‫إﻟﻰاحلالة‬ ‫إﻟﻰهذه‬ ‫ھﺬهإىل‬ ‫انتقاهلا‬ ‫وبعد‬ ‫احتاميل!𝑠𝑠) !𝑠𝑠𝑃𝑃‬
‫اﻧﺒﻌﺎﺛً َوﺎ ْﻓ! َ𝑒𝑒‬
‫ﺗﻮزﯾﻊ ً‬
‫ﻧﺸﻌﺮ𝑒𝑒 ﺑﮭﺎ‬ ‫ﻻ‬‫ﺗﻄﻠﻖ 𝑒𝑒‬ ‫اﻧﺒﻌﺎ‬ ‫ﺗﻄﻠﻖ‬
‫اﻟﺤﺎﻟﺔ‬
‫ﻧﺸﻌﺮ ﺑﻣﺎ‬
‫ﺣﺎﻟﺔ‬ ‫اﻟﺤﺎﻟﺔ‬
‫ھﺬه‬ ‫اﻧﺘﻘﺎﻟﮭﺎ إﻟﻰ‬
‫اﻧﺘﻘﺎﻟﮭﺎ‬
‫اﻟﺒﺪاﯾﺔ‬ ‫وﺑﻌﺪ𝑃𝑃‪ .‬وﺑﻌﺪ‬ ‫ﺗﺸﻐﯿﻠﮭﺎ‪𝑠𝑠! .‬‬ ‫اﺣﺘﻤﺎﻟﻲ ) !𝑠𝑠‬
‫اﺣﺘﻤﺎﻟﻲ‬ ‫ﺗﻮزﯾﻊ ﺗﻮزﯾﻊ‬
‫اﺣﺘﻤﺎﻟﻲ ) !𝑠𝑠 !𝑠𝑠 𝑃𝑃‬ ‫ﺗﻄﻠﻖ‬ ‫ھﺬهﮭﺎ! َ𝑠𝑠و! ْﻓﻖ‬
‫اﻟﺤﺎﻟﺔ‬ ‫وﺑﻌﺪﻣﺎ !!𝑠𝑠𝑠𝑠 ﻻ‬
‫اﻧﺘﻘﺎﻟﮭﺎ إﻟﻰ‬ ‫ﺣﺎﻟﺔ𝑃𝑃‪.‬ﺣﺎﻟﺔ‬
‫ﻣﻦ𝑠𝑠!𝑠𝑠إﻟﻰ‬ ‫ﺗﻨﺘﻘﻞ‬
‫اﻟﺒﺪاﯾﺔ!𝑠𝑠!‬
‫اﺣﺘﻤﺎﻟﻲ )‬ ‫ﺣﺎﻟﺔ‬ ‫ﻋﻨﺪﻣﻦ‬
‫ﺗﻮزﯾﻊ‬ ‫• ﻋﻨﺪ ﺗﺸﻐﯿﻠﮭﺎ •ﺗﻨﺘﻘﻞ‬
‫اﻧﺒﻌﺎﺛًﺎﺳًﺎ! َ𝑒𝑒و ْﻓﻖ ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻟﻲ‬
‫اﻟﺤﺎﻟﺔ𝑒𝑒 ﺗﻄﻠﻖﻣﺤﺴﻮ‬ ‫𝑜𝑜(𝑃𝑃‪.‬‬ ‫𝑜𝑜(𝑃𝑃‪.‬‬
‫𝑠𝑠|‬
‫ﺗﻮزﯾﻊ) !!𝑠𝑠‬ ‫𝑠𝑠|‬
‫اﺣﺘﻤﺎﻟﻲ!𝑠𝑠‬ ‫احتاميل )‬
‫اﺣﺘﻤﺎﻟﻲ‬
‫ﺗﻮزﯾﻊ‬ ‫توزيع‬‫اﺣﺘﻤﺎﻟﻲًﺎ َو) ْﻓ‬
‫ﺗﻮزﯾﻊﻖ‬ ‫ﻖﺳ‬‫ﻣﺤﺴﻮ‬‫ﻣﺤﺴﻮﺳًﺎ َو ْﻓ‬
‫ﺗﻄﻠﻖھﺬهاﻧﺒﻌﺎﺛًﺎ‬ ‫اﻧﺘﻘﺎﻟﮭﺎ‪ .‬إﻟﻰ‬
‫ﺣﺎﻟﺘﮭﺎ‬ ‫اﻟﺤﺎﻟﺔ‬
‫𝑜𝑜(𝑃𝑃‬
‫ﻋﻠﻰ‬
‫وﺑﻌﺪ‬
‫ھﺬه‬
‫𝑠𝑠|‬ ‫)‬
‫ﺗﻮزﯾﻊﯾﻌﺘﻤﺪ‬ ‫إﻟﻰ‬‫اﻧﺘﻘﺎﻟﮭﺎ!𝑃𝑃‪.‬‬
‫اﺣﺘﻤﺎﻟﻲ‬
‫اﺣﺘﻤﺎﻟﻲ‬
‫اﺣﺘﻤﺎﻟﻲ! )‬
‫وﺑﻌﺪ!‬ ‫ﻖ‬‫‪.‬‬ ‫ْ‬
‫𝑃𝑃‬
‫ﻓ‬ ‫و‬‫َ‬ ‫𝑠𝑠‬
‫ًﺎ‬ ‫ﺳ‬ ‫ﺗﻮزﯾﻊ‬
‫𝑠𝑠‬
‫ﻣﺤﺴﻮ‬ ‫ﺗﻮزﯾﻊ إﻟﻰ‬
‫!‬
‫ﻋﻠﻰﺣﺎﻟﺘﮭﺎ‬
‫ﺣﺎﻟﺘﮭﺎ‬ ‫ﯾﻌﺘﻤﺪﻋﻠﻰ‬ ‫اﺣﺘﻤﺎﻟﻲﯾﻌﺘﻤﺪ‬
‫اﺣﺘﻤﺎﻟﻲ‬‫!‬ ‫!‬
‫ﺗﻮزﯾﻊ‬ ‫وﻓﻖ‬ ‫ﺗﻮزﯾﻊ𝑠𝑠وﻓﻖ‬ ‫أﺧﺮى!𝑠𝑠‬ ‫ﺣﺎﻟﺔ𝑠𝑠 وﻓﻖ‬
‫أﺧﺮى‬ ‫ﺣﺎﻟﺔ‬ ‫أﺧﺮى !‬
‫!‬
‫إﻟﻰ‬
‫!‬
‫ﺗﻨﺘﻘﻞإﻟﻰ‬ ‫ذﻟﻚ ﺣﺎﻟﺔ‬
‫ﺗﻨﺘﻘﻞ‬‫ذﻟﻚ‬
‫ذﻟﻚﺛﻢﺗﻨﺘﻘﻞ‬
‫ﺑﻌﺪ‬ ‫• ﺛﻢ ﺑﻌﺪ •‬
‫𝑜𝑜(𝑃𝑃‪.‬توزيع احتاميل يعتمد عىل حالتها اآلن‬
‫ﺣﺎﻟﺘﮭﺎ‬ ‫ﻋﻠﻰ‬ ‫ﯾﻌﺘﻤﺪ‬ ‫اﺣﺘﻤﺎﻟﻲ‬ ‫أخرى ‪!S|𝑠𝑠2‬وفق‬
‫ﺗﻮزﯾﻊ‬ ‫وﻓﻖ‬ ‫)‬ ‫𝑠𝑠‬‫إىل حالة !‬
‫أﺧﺮى‬
‫اﺣﺘﻤﺎﻟﻲ‬ ‫!‬ ‫ﺣﺎﻟﺔ‬
‫ﺗﻮزﯾﻊ‬ ‫تنتقل‬‫إﻟﻰ‬
‫ﻖ‬ ‫ْ‬
‫ﻓ‬ ‫ذلك‬‫و‬ ‫ﺗﻨﺘﻘﻞ‬
‫ًﺎ‬‫ﺳ‬ ‫بعد‬
‫ذﻟﻚ‬
‫ﻣﺤﺴﻮ‬ ‫ثم‬ ‫Ÿ‬
‫ﺑﻌﺪ‬ ‫Ÿ‬ ‫ﺛﻢ‬ ‫• ﺛﻢ ﺑﻌﺪ•‬
‫𝑜𝑜(𝑃𝑃‪.‬‬ ‫اﺣﺘﻤﺎﻟﻲ )‬ ‫َ‬ ‫ﺗﻮزﯾﻊ‬ ‫ﻣﺤﺴﻮﺳًﺎ َو ْ‬
‫ﻣﺤﺴﻮًًﺎﺳًﺎ!𝑒𝑒‬‫ﻣﺤﺴﻮ ًﺳ‬ ‫اﻧﺒﻌﺎًﺎﺛًﺎ !ً𝑒𝑒‬
‫ﻣﺤﺴﻮﺳ‬ ‫ﻄﻠﻖ‬ ‫اﻧﺒﻌﺎﺗﺛًُﺎ‬
‫!‬
‫ﻄﻠﻖاﻟﺤﺎﻟﺔ‬ ‫ﻟﮭﺬه‬ ‫ﻟﮭﺬه !𝑠𝑠| !‬
‫اﻟﺤﺎﻟﺔ ﺗُ‬
‫اﻧﺘﻘﺎﻟﮭﺎ‬ ‫اﻧﺘﻘﺎﻟﮭﺎﺛﻢﺑﻌﺪ‬
‫𝑠𝑠(𝑃𝑃‪.‬ﺛﻢ‬
‫𝑠𝑠(𝑃𝑃‪.‬‬‫𝑠𝑠| !ﺑﻌﺪ‬ ‫𝑠𝑠(𝑃𝑃)ﻓ‪!.‬ﻖﺛﻢ‬‫اﻵن!وھﻮ‬ ‫اﻵن وھﻮ ) !‬
‫اﻵن𝑠𝑠|‬
‫وفق توزيع‬ ‫حمسوساﺳًﺎ‪𝑒𝑒!e1‬‬
‫اﻧﺒﻌﺎثﺛاﺎ ! ً‬
‫𝑒𝑒‬
‫ﻣﺤﺴﻮ‬ ‫ﻄﻠﻖ انبعا‬
‫اﻟﺤﺎﻟﺔ تﺗُطلق‬
‫ﺎ‬ ‫ﺛ‬ ‫ُ‬
‫اﻧﺒﻌﺎ‬ ‫هلذه احلالة‬
‫ﻄﻠﻖ‬ ‫ُ‬ ‫ﺗ‬‫انتقاهلا ﻟﮭﺬه‬
‫اﻟﺤﺎﻟﺔ‬ ‫بعداﻧﺘﻘﺎﻟﮭﺎ‬
‫ﻟﮭﺬه‬ ‫وهو ) !𝑠𝑠| !𝑠𝑠(𝑃𝑃‪ .‬ﺛﻢثمﺑﻌﺪ‬
‫اﻧﺘﻘﺎﻟﮭﺎ‬ ‫ﺑﻌﺪ‬ ‫وھﻮ‬ ‫𝑠𝑠|‬
‫اﻵن! !‬ ‫)‬ ‫وھﻮ‬
‫𝑠𝑠|𝑜𝑜(𝑃𝑃‪.‬‬ ‫𝑜𝑜(𝑃𝑃‪.‬‬
‫اﺣﺘﻤﺎﻟﻲ )‬
‫اﺣﺘﻤﺎﻟﻲ!𝑠𝑠| !‬ ‫ﺗﻮزﯾﻊ) !𝑠𝑠| !‬ ‫اﺣﺘﻤﺎﻟﻲ‬
‫وﻓﻖ ﺗﻮزﯾﻊوﻓﻖ‬
‫𝑠𝑠| !𝑜𝑜(𝑃𝑃‪.‬‬ ‫𝑜𝑜(𝑃𝑃‪.‬‬ ‫احتاميل ) ! !‬
‫اﺣﺘﻤﺎﻟﻲ ) !‬ ‫وﻓﻖ ﺗﻮزﯾﻊ‬ ‫وﻓﻖ ﺗﻮزﯾﻊ‬
‫ﺗﺘﻮﻗﻒ‪36 .‬‬ ‫ﺗﺘﻮﻗﻒ‪.‬أن ‪36‬‬ ‫إﻟﻰ أن‬ ‫وﺗﺴﺘﻤﺮﱡاﻟﻌﻤﻠﯿﺔ‬
‫• وﺗﺴﺘﻤﺮﱡ•ﻓﻲ ھﺬه‬
‫تتوقف‪.‬‬ ‫ﺗﺘﻮﻗﻒ‪36 .‬‬ ‫ﺗﺘﻮﻗﻒ‪ .‬إىل أن‬
‫العملية‬
‫أن‬ ‫إﻟﻰيفإﻟﻰهذه‬
‫أن‬
‫اﻟﻌﻤﻠﯿﺔ إﻟﻰ‬
‫اﻟﻌﻤﻠﯿﺔ‬
‫وتستمر‬
‫اﻟﻌﻤﻠﯿﺔ‬
‫ھﺬه‬‫ھﺬه ﻓﻲ ُّ‬ ‫وﺗﺴﺘﻤﺮﱡﻓﻲﻓﻲŸھﺬه Ÿ‬
‫وﺗﺴﺘﻤﺮﱡ‬ ‫•‬ ‫•‬
‫ﻣﻦ ﻛﻞ‬ ‫ﺗﺨﺮج‬ ‫واﻻﻧﺒﻌﺎﺛﺎت اﻟﺘﻲ‬ ‫ﺣﺎﻟﺔ‪،‬‬ ‫اﻵﻟﺔ إﻟﻰ‬
‫ﻣﻦمنﻛﻞكل حالة‪،‬‬ ‫خترج‬ ‫ﻛﻞ‬ ‫اﻟﺘﻲﻣﻦﻣﻦ‬
‫التي‬ ‫ﺗﺨﺮج‬
‫واالنبعاثات‬ ‫واﻻﻧﺒﻌﺎﺛﺎتاﻟﺘﻲ‬
‫واﻻﻧﺒﻌﺎﺛﺎت‬
‫حالة‪،‬‬ ‫إىل‬ ‫حالة‬ ‫ﺣﺎﻟﺔ‪،‬‬
‫من‬
‫اآللةﺣﺎﻟﺔ‬
‫ﺣﺎﻟﺔإﻟﻰ‬
‫ﻣﻦ ﺣﺎﻟﺔ‬
‫انتقالﻣﻦ‬
‫أنﻣﻦاﻵﻟﺔ‬ ‫ﺣﺎﻟﺔهنا‬
‫نالحظ‬ ‫اﻵﻟﺔ ﻣﻦ‬
‫اﻧﺘﻘﺎل‬ ‫اﻧﺘﻘﺎلھﻨﺎأن‬
‫ﻧﻼﺣﻆھﻨﺎ‬‫ﻧﻼﺣﻆ‬‫ﺣﻆ ھﻨﺎ أن‬
‫‪36‬‬
‫ﻛﻞ‬
‫ﺗﺨﺮج‬ ‫ﺗﺨﺮج‬ ‫اﻟﺘﻲ‬
‫واﻻﻧﺒﻌﺎﺛﺎت‬ ‫ﺣﺎﻟﺔ‪،‬‬ ‫ﺣﺎﻟﺔ‪،‬‬
‫إﻟﻰ‬ ‫إﻟﻰ‬
‫‪36‬‬
‫اﻵﻟﺔ‬
‫اﻧﺘﻘﺎل‬ ‫اﻧﺘﻘﺎلأن‬
‫أن ھﻨﺎ‬‫ﻧﻼﺣﻆ‬
‫أي‬ ‫تنتقل إىل ِّ‬ ‫أن أن‬
‫ﯾﻤﻜﻦ أن‬ ‫يمكن‬
‫ﯾﻤﻜﻦأن‬
‫ﻓﺈﻧﮭﺎ‬ ‫فإهنا‬
‫ﯾﻤﻜﻦ‬ ‫أن‪،‬‬
‫ﯾﻤﻜﻦ𝑠𝑠‪S1،‬‬
‫ﻓﺈﻧﮭﺎ‬
‫ﻓﺈﻧﮭﺎ𝑠𝑠‪،‬‬
‫اﻷوﻟﻰ !‬
‫األوىل‬ ‫ﻓﺈﻧﮭﺎ‬
‫اﻷوﻟﻰ!𝑠𝑠‪،‬‬
‫اﻷوﻟﻰ‬
‫ﻓﻲ اﻟﺤﺎﻟﺔ !‬
‫يف𝑠𝑠‪،‬‬
‫اﻟﺤﺎﻟﺔاحلالة‬‫اﻟﺤﺎﻟﺔ‬ ‫اﻷوﻟﻰ‬
‫اآللة !‬ ‫كانتﻓﻲ‬
‫ﻛﺎﻧﺖﻓﻲاﻵﻟﺔ‬ ‫اﻵﻟﺔ‬
‫اﻟﺤﺎﻟﺔ‬
‫فلوﻓﻠﻮ‬
‫ﻛﺎﻧﺖاﻵﻟﺔ‬ ‫يقينية‪.‬ﻓﻲ‬
‫ﻛﺎﻧﺖ‬ ‫ليست اﻵﻟﺔ‬
‫ﻓﻠﻮﻓﻠﻮ‬
‫ﯾﻘﯿﻨﯿﺔ‪.‬‬
‫ﻓﻠﻮ ﻛﺎﻧﺖ‬
‫ﯾﻘﯿﻨﯿﺔ‪.‬‬
‫ﯾﻘﯿﻨﯿﺔ‪.‬‬
‫ﻟﯿﺴﺖ‬
‫ﯾﻘﯿﻨﯿﺔ‪.‬‬
‫مجيعها‬
‫ﻟﯿﺴﺖ‬
‫ﻟﯿﺴﺖ‬
‫ﺟﻤﯿﻌﮭﺎ‬
‫ﺟﻤﯿﻌﮭﺎ‬
‫ﺟﻤﯿﻌﮭﺎ‬
‫ﺣﺎﻟﺔ‪ ،‬ﺣﺎﻟﺔ‪،‬‬
‫ﺣﺎﻟﺔ‪،‬ﻟﯿﺴﺖ‬
‫ﻟﺔ‪ ،‬ﺟﻤﯿﻌﮭﺎ‬
‫أي‬
‫قد تُطلق َّ‬ ‫وكذلك‬ ‫تليها‪.‬‬
‫ﺗﻠﯿﮭﺎ‪.‬‬ ‫التي‬
‫اﻟﺘﻲ‬ ‫املرحلة‬
‫ﺗﻠﯿﮭﺎ‪.‬‬
‫اﻟﻤﺮﺣﻠﺔ‬ ‫اﻟﻤﺮﺣﻠﺔيف‬
‫ﻓﻲ!اﻟﺘﻲ‬ ‫…ﻓﻲ!! 𝑠𝑠 ‪𝑠𝑠! ,‬‬ ‫احلاالت‬
‫… !!!!𝑠𝑠!‪𝑠𝑠.!!. ,‬‬ ‫من!!𝑠𝑠 ‪. . ,‬‬
‫اﻟﺤﺎﻻت‬ ‫ﻣﻦﻣﻦ‬ ‫منﻣﻦ𝑛𝑛‪𝑛𝑛 n‬‬
‫اﻟﺤﺎﻻت‬ ‫حالة ﻣﻦ‬
‫ﻣﻦ‬
‫ﻣﻦأيﱢأ𝑛𝑛 ﱢﺣﺎﻟﺔ‬ ‫ﺗﻨﺘﻘﻞﺣﺎﻟﺔ‬
‫إﻟﻰ‬ ‫ي‬
‫ﻘﻞ إﻟﻰ أ ﱢ‬
‫ﺗﻠﯿﮭﺎ‪.‬‬
‫اﻟﺘﻲ ﺗﻠﯿﮭﺎ‪.‬‬ ‫اﻟﺘﻲ‬
‫اﻟﻤﺮﺣﻠﺔ‬ ‫اﻟﻤﺮﺣﻠﺔ‬ ‫…!𝑠𝑠!‪𝑠𝑠! 𝑠𝑠…!! ,.!𝑠𝑠. !,‬‬
‫ﻓﻲ ‪ 𝑠𝑠!! ,‬ﻓﻲ‬ ‫!‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪,‬‬
‫اﻟﺤﺎﻻت‬ ‫𝑠𝑠‬ ‫!‬ ‫اﻟﺤﺎﻻت‬
‫ﻣﻦ‬ ‫ﻣﻦ 𝑛𝑛‬ ‫ﺣﺎﻟﺔ‬ ‫ﺣﺎﻟﺔأيﱢ‬
‫ي إﻟﻰ‬‫ﺗﻨﺘﻘﻞ إﻟﻰﺗﻨﺘﻘﻞ‬
‫االنتقال إىل احلاالت‬‫وﻟﻜﻦ!‬
‫احتاملية‬ ‫ولكن!‬
‫وﻟﻜﻦ !𝑜𝑜!‪! .‬‬
‫!! !‬
‫!‪,!𝑜𝑜!!!….𝑜𝑜.!. ,,‬‬ ‫االنبعاثات !!𝑜𝑜 ‪. . ,‬‬
‫اﻻﻧﺒﻌﺎﺛﺎت… !!𝑜𝑜𝑜𝑜‬ ‫منﻣﻦ ‪ m‬ﻣﻦ‬
‫اﻻﻧﺒﻌﺎﺛﺎت‬ ‫انبعاثﻣﻦمن‪mm‬‬
‫اﻧﺒﻌﺎثﻣﻦ‬ ‫ي‬‫اﻧﺒﻌﺎثأ ﱠ‬
‫ي ﺗُﻄﻠﻖ‬ ‫ﺬﻟﻚ ﻗﺪ ﺗُﻄﻠﻖ‬
‫وﻛﺬﻟﻚ أﻗﺪ ﱠ‬
‫وﻟﻜﻦ𝑜𝑜‪ .‬وﻟﻜﻦ‬
‫…𝑜𝑜‪! , 𝑜𝑜!.‬‬
‫𝑜𝑜‪! ,.‬‬
‫…𝑜𝑜 ‪. !,‬‬ ‫اﻻﻧﺒﻌﺎﺛﺎت !𝑜𝑜 ‪,‬‬
‫اﻻﻧﺒﻌﺎﺛﺎت‪! . .‬‬ ‫ﻣﻦ ‪ m‬ﻣﻦ‬ ‫‪ m‬ﻣﻦ‬ ‫اﻧﺒﻌﺎث ﻣﻦ‬
‫اﻧﺒﻌﺎث‬ ‫يﻄﻠﻖ أ ﱠ‬
‫ي‬ ‫ﻄﻠﻖﻗﺪ أ ﺗُ ﱠ‬ ‫وﻛﺬﻟﻚ ﻗﺪ ﺗُ‬
‫وﻛﺬﻟﻚ‬
‫ﺣﺎﻻتﻣﻌﯿﻨﺔ‬‫ﺣﺎﻻت‬ ‫ﻣﻌﯿﻨﺔ‬ ‫ﺣﺎﻻتإﻟﻰ‬
‫ﻧﺘﻘﺎل‬ ‫اﺣﺘﻤﺎﻟﯿﺔإﻟﻰ‬
‫ﺗﻜﻮناﻻﻧﺘﻘﺎل‬
‫اﺣﺘﻤﺎﻟﯿﺔاﻻ‬ ‫اﺣﺘﻤﺎﻟﯿﺔ‬ ‫اﻟﺤﺎﻻتﻓﻘﺪ ﺗﻜﻮن‬
‫اﻟﺤﺎﻻتإﻟﻰﺗﺨﺘﻠﻒ‪،‬‬‫اﺣﺘﻤﺎﻟﯿﺔإﻟﻰاﻻﻧﺘﻘﺎل‬
‫ﺘﻤﺎﻟﯿﺔ اﻻﻧﺘﻘﺎل‬
‫ﻣﻌﯿﻨﺔ‬
‫ﺣﺎﻻت ﻣﻌﯿﻨﺔ‬ ‫إﻟﻰﻧﺘﻘﺎل إﻟﻰ‬ ‫ﻧﺘﻘﺎل اﻻ‬ ‫اﻻ‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬
‫‪-35-‬‬‫ﺗﻜﻮنﻓﻘﺪ ﺗﻜﻮن‬ ‫ﺗﺨﺘﻠﻒ‪،‬ﻓﻘﺪﻓﻘﺪ‬
‫ﺗﺨﺘﻠﻒ‪،‬‬
‫ﺗﺨﺘﻠﻒ‪،‬‬
‫اﻟﺤﺎﻻتاﻟﺤﺎﻻت‬ ‫اﻻﻧﺘﻘﺎل إﻟﻰ‬
‫اﻻﻧﺘﻘﺎل إﻟﻰ‬ ‫اﺣﺘﻤﺎﻟﯿﺔاﺣﺘﻤﺎﻟﯿﺔ‬
‫اﻷﺧﺮى‪.‬ﻛﺎﻧﺖ‪:‬‬
‫ﻓﻤﺜﻼﻟﻮ ﻛﺎﻧﺖ‪:‬‬
‫ﻓﻤﺜﻼ‬ ‫إﻟﻰﻓﻤﺜﻼ ﻟﻮ‬ ‫اﻷﺧﺮى‪.‬‬
‫أﻋﻠﻰﻣﻨﮭﺎ‬‫ﻠﻰ ﻣﻨﮭﺎ إﻟﻰ‬
‫أﻋﻠﻰ‬
‫ﻛﺎﻧﺖ‪:‬ﻟﻮ ﻛﺎﻧﺖ‪:‬‬
‫اﻷﺧﺮى‪.‬ﻟﻮﻓﻤﺜﻼ‬ ‫اﻷﺧﺮى‪.‬‬
‫إﻟﻰﻣﻨﮭﺎ إﻟﻰ‬ ‫أﻋﻠﻰ‬‫ﻣﻨﮭﺎ‬
‫ختتلف‪ ،‬فقد تكون احتاملية االنتقال إىل حاالت معينة أعىل منها إىل األخرى‪ .‬فمثال لو‬
‫كانت‪:‬‬

‫اﻟزﻣن‬
‫!𝑠𝑠𝑠𝑠‬ ‫اﻟزﻣن‬
‫اﻟزﻣن‬
‫نﻣزﻟا‬
‫نﻣزﻟا‬
‫اﻟزﻣن‬
‫اﻟزﻣن‬
‫نﻣزﻟا‬
‫نﻣزﻟا‬
‫𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫!!𝑠𝑠!!!𝑠𝑠‬

‫!𝑠𝑠𝑠𝑠‬
‫𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫!𝑜𝑜𝑜𝑜‬ ‫!!𝑠𝑠!!!𝑠𝑠‬
‫𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜‬
‫𝑜𝑜‬
‫!!𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜‬
‫!‬ ‫!‬

‫‪.‬‬
‫‪... . .‬‬
‫‪... . .‬‬
‫‪... .‬‬
‫!𝑜𝑜𝑜𝑜‬
‫𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜‬
‫𝑜𝑜‬
‫𝑜𝑜𝑜𝑜‬
‫!!𝑜𝑜𝑜𝑜‬ ‫𝑜𝑜𝑜𝑜‬
‫!‬‫!‬
‫!𝑠𝑠𝑠𝑠‬
‫𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫!!𝑠𝑠!!!𝑠𝑠‬

‫𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸‬
‫𝐸𝐸𝐸𝐸𝐸𝐸‬

‫اخلفية‪.‬‬
‫اﻟﺨﻔﯿﺔ‪.‬‬
‫اﻟﺨﻔﯿﺔ‪.‬‬ ‫ماركوف‬
‫اﻟﺨﻔﯿﺔ‪.‬‬ ‫ﻣﺎرﻛﻮف‬
‫ﻣﺎرﻛﻮف‬ ‫لنامذج‬
‫ﻟﻨﻤﺎذج‬
‫ﻟﻨﻤﺎذج‬ ‫يل‬‫خت ُّي‬
‫ﱡﻠﻲﺗﺨ‬
‫ﺗﺨﯿﯿﱡﻠﻲ‬ ‫رسمﺗﺨﯿ‬
‫رﺳﻢ‬ ‫رﺳﻢ‬ ‫الشكل‪:2:2‬‬
‫اﻟﺸﻜﻞ ‪:2‬‬ ‫اﻟﺸﻜﻞ‬
‫ﻣﺎرﻛﻮفاﻟﺨﻔﯿﺔ‪.‬‬
‫اﻟﺨﻔﯿﺔ‪.‬‬ ‫ﻟﻨﻤﺎذجﻣﺎرﻛﻮف‬
‫ﻣﺎرﻛﻮف‬ ‫ﱡﻠﻲﻟﻨﻤﺎذج‬
‫ﻟﻨﻤﺎذج‬ ‫ﱡﻠﻲﱡﻠﻲ‬ ‫رﺳﻢﺗﺨﯿ‬
‫ﺗﺨﯿ‬ ‫اﻟﺸﻜﻞ‪::22:2‬رﺳﻢ‬
‫رﺳﻢ‬ ‫اﻟﺸﻜﻞ‬
‫اﻟﺸﻜﻞ‬

‫!‬
‫𝑃𝑃𝑃𝑃‬
‫𝑃𝑃𝑃𝑃‬ ‫=𝑠𝑠𝑠𝑠 𝑠𝑠𝑠𝑠𝑃𝑃𝑃𝑃‬ ‫=!)𝑠𝑠𝑠𝑠))!)𝑠𝑠!𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠!𝑠𝑠𝑠𝑠!!𝑠𝑠!𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫==!‬ ‫=‬‫‪)=0.03‬‬
‫=‬
‫‪0.03‬‬ ‫𝑃𝑃𝑃𝑃ووووو‬
‫‪0.03‬‬ ‫= !𝑠𝑠𝑠𝑠!𝑃𝑃𝑃𝑃𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠و‬
‫𝑃𝑃𝑃𝑃‬ ‫==𝑠𝑠𝑠𝑠‬
‫=‬ ‫!!‬
‫=𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬ ‫=𝑠𝑠𝑠𝑠))))!𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫=‬ ‫‪)0.6‬‬
‫=‬
‫‪0.60.6‬‬
‫‪0.6‬‬
‫=!!𝑠𝑠!𝑠𝑠𝑠𝑠!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑃𝑃‬ ‫𝑠𝑠𝑠𝑠!‬
‫𝑃𝑃‬
‫𝑃𝑃‬ ‫𝑃𝑃‬
‫𝑃𝑃‬ ‫𝑠𝑠‬ ‫𝑠𝑠𝑠𝑠!!‬
‫𝑠𝑠‬
‫𝑃𝑃𝑃𝑃‬
‫𝑃𝑃𝑃𝑃𝑃𝑃‬ ‫=‬ ‫!!‬ ‫=‬ ‫‪0.03‬‬
‫‪0.03‬‬ ‫𝑃𝑃𝑃𝑃‬
‫𝑃𝑃‬‫𝑃𝑃𝑃𝑃‬
‫𝑃𝑃‬ ‫𝑠𝑠‬ ‫𝑠𝑠‬
‫!!‬ ‫𝑠𝑠‬‫!‬ ‫𝑠𝑠𝑠𝑠‬
‫!‬
‫𝑠𝑠‬
‫!𝑠𝑠 !!‬ ‫= !𝑠𝑠‬ ‫=!‬ ‫‪0.6‬‬
‫احلالة!!𝑠𝑠𝑠𝑠!!𝑠𝑠!𝑠𝑠𝑠𝑠‪...𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠.!!.‬‬
‫تكون اﻟﺤﺎﻟﺔ!‬
‫ﺗﻜﻮن‬
‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺤﺎﻟﺔ‬ ‫بأن‬
‫ﺑﺄن‬
‫ﺗﻜﻮن‬
‫ﺗﻜﻮن‬ ‫ﺑﺄن‬ ‫منه‬
‫ﻣﻨﮫ‬
‫ﺑﺄن‬
‫ﻣﻨﮫ‬ ‫أكرب‬
‫أﻛﺒﺮ‬
‫ﻣﻨﮫ‬
‫أﻛﺒﺮ‬‫أﻛﺒﺮ‬ ‫تكون‬
‫ﺗﻜﻮن𝑠𝑠𝑠𝑠!!!𝑠𝑠!𝑠𝑠𝑠𝑠!!𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠‬
‫!‬
‫ﺗﻜﻮن‬ ‫ﺗﻜﻮن‬‫أن‬
‫أن‬
‫أن‬
‫ﯾﻤﻜﻦأنأن‬ ‫يمكن‬
‫ﯾﻤﻜﻦ‬ ‫ﯾﻤﻜﻦأن‬ ‫ﯾﻤﻜﻦ‬ ‫الثانية‬
‫اﻟﺜﺎﻧﯿﺔ‬
‫اﻟﺜﺎﻧﯿﺔ‬ ‫احلالة‬
‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺜﺎﻧﯿﺔ‬
‫اﻟﺤﺎﻟﺔ‬ ‫بأن‬
‫ﺑﺄن‬
‫اﻟﺤﺎﻟﺔ‬
‫ﺑﺄن‬ ‫اعتقادنا‬
‫اﻋﺘﻘﺎدﻧﺎ‬
‫ﺑﺄن‬ ‫ﻓﺈن فإن‬
‫ﻓﺈن‬
‫اﻋﺘﻘﺎدﻧﺎ‬
‫اﻋﺘﻘﺎدﻧﺎﺑﺄن‬ ‫ﻓﺈن‬
‫اﻟﺤﺎﻟﺔ !!‬ ‫اﻟﺤﺎﻟﺔ‬‫ﺗﻜﻮن‬
‫ﺗﻜﻮن‬‫ﺑﺄن‬
‫ﺑﺄن‬ ‫ﻣﻨﮫ‬
‫ﻣﻨﮫ‬ ‫أﻛﺒﺮ‬
‫أﻛﺒﺮ‬ ‫ﺗﻜﻮن !!‬ ‫ﺗﻜﻮن!‬ ‫ﯾﻤﻜﻦ‬ ‫اﻟﺜﺎﻧﯿﺔ‬
‫اﻟﺜﺎﻧﯿﺔ‬ ‫اﻟﺤﺎﻟﺔ‬
‫اﻟﺤﺎﻟﺔ‬ ‫ﺑﺄن‬ ‫اﻋﺘﻘﺎدﻧﺎ‬
‫اﻋﺘﻘﺎدﻧﺎ‬‫ﻓﺈن‬
‫ﻓﺈن‬
‫بشكل‬
‫اﻵﻟﺔ‬ ‫ﺣﺎﻻتاﻵﻟﺔ‬ ‫اآللة‬
‫ﺣﺎﻻت‬
‫ﺣﺎﻻت‬ ‫حاالت‬
‫ھﻲ‬ ‫ﻣﺎﻣﺎ‬
‫ھﻲ‬ ‫هي‬
‫ﻣﻌﺮﻓﺔ‬‫معرفة ما‬
‫ﯾﻤﻜﻦ‬ ‫يمكن‬
‫ﻻﻻ‬ ‫ﻓﺈﻧﮫال‬
‫ﻓﺈﻧﮫ‬ ‫فإنه ْْنْ‬
‫نن‬ ‫ﻟﻼﻧﺒﻌﺎﺛﺎت‪.‬إ َذإ َْذن‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‪.‬إن َذإإإ ََْذذنَذ‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‪ْ .‬‬ ‫لالنبعاثات‪.‬‬ ‫بالنسبة‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬ ‫ﻧﻔﺴﮫ‬ ‫نفسه‬
‫واﻟﺤﺎل‬‫واحلال‬
‫اﻵﻟﺔ‬
‫اﻵﻟﺔ‬ ‫اﻵﻟﺔ‬ ‫ﺣﺎﻻت‬
‫ﺣﺎﻻت‬ ‫ھﻲ‬
‫ھﻲ‬
‫ھﻲ‬ ‫ﻣﺎﻣﺎﻣﺎ‬ ‫ﻣﻌﺮﻓﺔ‬
‫ﻣﻌﺮﻓﺔ‬
‫ﻣﻌﺮﻓﺔ‬
‫ﻣﻌﺮﻓﺔ‬ ‫ﯾﻤﻜﻦ‬
‫ﯾﻤﻜﻦ‬
‫ﯾﻤﻜﻦ‬ ‫ﯾﻤﻜﻦ‬ ‫ﻓﺈﻧﮫﻻ‬
‫ﻓﺈﻧﮫﻻﻻ‬
‫ﻓﺈﻧﮫ‬ ‫ﺑﺎﻟﻨﺴﺒﺔﻟﻼﻧﺒﻌﺎﺛﺎت‪.‬‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‪.‬‬ ‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬ ‫ﻧﻔﺴﮫﻧﻔﺴﮫ‬
‫ﻧﻔﺴﮫ‬
‫ﻧﻔﺴﮫ‬ ‫واﻟﺤﺎل‬
‫واﻟﺤﺎل‬‫واﻟﺤﺎل‬
‫واﻟﺤﺎل‬
‫يمكن‬
‫ﻻﻻ‬ ‫وﻟﻜﻦ‬‫ظﮭﺮتال‬
‫اﻟﺘﻲ ولكن‬
‫ظﮭﺮت‬ ‫ظهرت‬ ‫االنبعاثات التي‬ ‫معرفة‬ ‫لالنبعاثات فيمكن‬ ‫بالنسبة‬ ‫يقيني‪ ،‬أما‬
‫وﻟﻜﻦ‬
‫ﻻﻻﻻ‬ ‫وﻟﻜﻦ‬
‫وﻟﻜﻦ‬
‫وﻟﻜﻦ‬ ‫اﻟﺘﻲظﮭﺮت‬
‫ظﮭﺮت‬
‫ظﮭﺮت‬ ‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬‫اﻻﻧﺒﻌﺎﺛﺎت‬
‫اﻻﻧﺒﻌﺎﺛﺎت‬
‫اﻟﺘﻲ‬
‫اﻻﻧﺒﻌﺎﺛﺎت‬
‫اﻻﻧﺒﻌﺎﺛﺎت‬‫ﻣﻌﺮﻓﺔ‬
‫ﻣﻌﺮﻓﺔ‬
‫اﻻﻧﺒﻌﺎﺛﺎت‬
‫ﻣﻌﺮﻓﺔ‬
‫ﻣﻌﺮﻓﺔ‬‫ﻓﯿﻤﻜﻦ‬
‫ﻓﯿﻤﻜﻦ‬
‫ﻣﻌﺮﻓﺔ‬
‫ﻓﯿﻤﻜﻦ‬
‫ﻓﯿﻤﻜﻦ‬‫ﻟﻼﻧﺒﻌﺎﺛﺎت‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‬
‫ﻓﯿﻤﻜﻦ‬ ‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‬
‫ﻟﻼﻧﺒﻌﺎﺛﺎت‬ ‫أﻣﺎ‬
‫أﻣﺎ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫ﺑﺎﻟﻨﺴﺒﺔ‬ ‫ﯾﻘﯿﻨﻲ‪،‬‬
‫ﯾﻘﯿﻨﻲ‪،‬أﻣﺎأﻣﺎ‬
‫أﻣﺎ‬ ‫ﺑﺸﻜﻞ‬
‫ﺑﺸﻜﻞ‬
‫ﯾﻘﯿﻨﻲ‪،‬‬
‫ﯾﻘﯿﻨﻲ‪،‬‬
‫ﯾﻘﯿﻨﻲ‪،‬‬‫ﺑﺸﻜﻞ‬
‫ﺑﺸﻜﻞ‬‫ﺑﺸﻜﻞ‬

‫‪-3٦-‬‬
‫‪-36-‬‬
‫‪38‬‬
‫‪38‬‬
‫‪3838 38‬‬
‫‪38‬‬
‫‪38‬‬
‫‪3838‬‬
‫ﯾﻤﻜﻦ ﻣﻌﺮﻓﺔ اﻻﻧﺒﻌﺎﺛﺎت اﻟﺘﻲ ﺳﺘﺤ ُﺪ ُ‬
‫ث ﻓﻲ اﻟﻤﺴﺘﻘﺒﻞ ﻋﻠﻰ ﺳﺒﯿﻞ اﻟﯿﻘﯿﻦ‪ .‬ھﺬه اﻟﻌﻤﻠﯿﺎت‬
‫ﺗُﻌ َﺮف ﻓﻲ أدﺑﯿﺎت اﻻﺣﺼﺎء واﻻﺣﺘﻤﺎﻻت ﺑﺎﻟﻌﻤﻠﯿﺎت اﻟﻌﺸﻮاﺋﯿﺔ‪Stochastic ) 1‬‬
‫‪.(Processes‬‬

‫ھﺬا اﻟﻨﻤﻮذج اﻟﺘﺨﯿﱡﻠﻲ ﯾﻤﻜﻦ ﺗﻄﺒﯿﻘﮫ ﻋﻠﻰ ﻣﻌﺎﻟﺠﺔ ﻛﺜﯿﺮ ﻣﻦ اﻟﻈﻮاھﺮ اﻟﻠﻐﻮﯾﺔ‪ .‬وﻟﻨﺄﺧﺬ‬
‫ُعرف‬
‫ث يف املستقبل عىل سبيل اليقني‪ .‬هذه العمليات ت َ‬ ‫معرفة االنبعاثات التي ستحدُ ُ‬
‫((( ‪Part of‬‬ ‫ً‬
‫ﻣﺜﺎﻻ وھﻮ اﺳﺘﻨﺘﺎج أﺟﺰاء اﻟﻜﻼم ﻟﻠﻜﻠﻤﺎت اﻟﻤﻮﺟﻮدة ﻓﻲ اﻟ ُﺠ َﻤﻞ ) ‪Speech‬‬
‫يف أدبيات االحصاء واالحتامالت بالعمليات العشوائية (‪.)Stochastic Processes‬‬
‫‪ .(Tagging‬ﻓﺄﺟﺰاء اﻟﻜﻼم ﺗُﻌﺘﺒﺮ ﺣﺎﻻت ﺧﻔﯿﺔ ﻏﯿﺮ ﻣﻮﺟﻮدة ﻓﻲ اﻟﻨﺺ‪ .‬ﺣﯿﺚ إن‬
‫هذا النموذج التخ ُّييل يمكن تطبيقه عىل معاجلة كثري من الظواهر اللغوية‪ .‬ولنأخذ‬
‫اﻟﻨﺺ ﻻ ﯾﺤﺘﻮي ﺳﻮى اﻟﻜﻠﻤﺎت واﻟﺘﻲ ﯾﻤﻜﻦ اﻋﺘﺒﺎرھﺎ ھﻨﺎ اﻧﺒﻌﺎﺛﺎت ﺗﺨﺮج ﻣﻦ‬
‫جل َمل (‪Part of Speech‬‬
‫مثال وهو استنتاج أجزاء الكالم للكلامت املوجودة يف ا ُ‬ ‫ً‬
‫أﺟﺰاء اﻟﻜﻼم‪ .‬ﻓﺎﻟﺤﺎﻟﺔ اﻟﺨﻔﯿﺔ "ﻓﻌﻞ"‪ ،‬ﻋﻠﻰ ﺳﺒﯿﻞ اﻟﻤﺜﺎل‪ ،‬ﻗﺪ ﯾﺨﺮج ﻣﻨﮭﺎ اﻧﺒﻌﺎﺛﺎت‬
‫‪ .)Tagging‬فأجزاء الكالم تُعترب حاالت خفية غري موجودة يف النص‪ .‬حيث إن النص‬
‫خترج من أجزاء الكالم‪.‬‬ ‫انبعاثات إﻟﺦ(‪،‬‬
‫"أﻛﻞ"‪" ،‬ﻧﺎم"‪،‬‬ ‫اعتبارها هنا‬ ‫)"ذھﺐ"‪،‬‬ ‫اﻟﻜﺎﺗﺐيمكن‬ ‫اﻟﺘﻲ ﯾﻌﺮﻓﮭﺎ‬
‫الكلامت والتي‬ ‫اﻷﻓﻌﺎلسوى‬ ‫ﺟﻤﯿﻊحيتوي‬
‫ﻛﺜﯿﺮة وھﻲ ال‬
‫كثرية وهي مجيع األفعال‬ ‫انبعاثاتﺷﯿﻮﻋًﺎ‬
‫اﻷﻓﻌﺎل أﻛﺜﺮ‬‫خيرج منها‬ ‫املثال‪،‬أنقدﺑﻌﺾ‬ ‫أﺧﺬﻧﺎعىلﻓﻲسبيل‬
‫اﻻﻋﺘﺒﺎر‬ ‫«فعل»‪،‬‬ ‫اخلفية‬
‫ﺘﻠﻔﺔ‪ ،‬إذا‬ ‫فاحلالةﻣﺨ‬
‫وﻟﻜﻦ وﻓﻖ اﺣﺘﻤﺎﻻت‬
‫وفقﯿَﻢاحتامالت خمتلفة‪ ،‬إذا‬ ‫ولكنو ْﻓﻖ ﻗِ‬
‫آﺧﺮ ﯾﺘ ﱡﻢ َ‬‫ﻛﻼمإلخ)‪،‬‬ ‫«نام»‪،‬‬
‫«أكل»‪،‬ﺟﺰء‬ ‫ﻛﻼم إﻟﻰ‬ ‫(«ذهب»‪،‬‬
‫الكاتبﻣﻦ ﺟﺰء‬ ‫يعرفهااﻻﻧﺘﻘﺎل‬ ‫ﻣﻦ اﻷﺧﺮى‪ .‬التي‬
‫وﻛﺬﻟﻚ ﻓﺈن‬
‫ﯾﻜﻮنوكذلك فإن االنتقال‬ ‫األخرى‪.‬‬
‫"اﺳﻢ" )أن‬ ‫ﺣﺎﻟﺔ ًعا من‬
‫أكثر شيو‬ ‫"ﻓﻌﻞ" إﻟﻰ‬ ‫ﺣﺎﻟﺔاألفعال‬
‫اﻻﻧﺘﻘﺎلأنﻣﻦبعض‬ ‫ﻓﺎﺣﺘﻤﺎلاالعتبار‬
‫اﺣﺘﻤﺎﻟﯿﺔ ﻣﺨﺘﻠﻔﺔ‪.‬أخذنا يف‬
‫اﻟﻔﺎﻋﻞفاحتامل االنتقال من‬ ‫ﯾﻜﻮنخمتلفة‪.‬‬ ‫احتاملية‬ ‫يتم َو ْفق ِق َي‬
‫"ﺣﺮف"م )أن‬ ‫آخرﺣﺎﻟﺔ ُّ‬‫كالمإﻟﻰ‬ ‫ﻓﻲجزء‬
‫اﻻﻧﺘﻘﺎل‬ ‫ﻣﻨﮫ إىل‬
‫أﻋﻠﻰكالم‬ ‫رﺑﻤﺎ جزء‬
‫ھﻨﺎﻟﻚ ﻓﺎﻋﻞ( من‬
‫‪ Generative‬منه يف االنتقال إىل‬
‫هنالك )فاعل) ربام أعىل‬ ‫يكون ﺗﻮﻟﯿﺪﯾﺔ‬ ‫(أنﺑﻌﻤﻠﯿﺔ‬ ‫«اسم»ﯾﻤﺮﱡ‬
‫حالةاﻟﻜﺎﺗﺐ‬ ‫«فعل» إىل‬
‫اﻋﺘﺒﺎر أن‬ ‫حالةﯾﻤﻜﻦ‬
‫ﺿﻤﯿﺮًا ﻣﺴﺘﺘﺮًا(‪.‬‬
‫يمر بعملية‬‫ُّ‬ ‫الكاتب‬ ‫أن‬ ‫اعتبار‬ ‫يمكن‬ ‫ا)‪.‬‬ ‫رت‬ ‫مست‬ ‫ا‬ ‫ضمري‬ ‫الفاعل‬ ‫يكون‬ ‫(أن‬ ‫«حرف»‬
‫‪ (Process‬أﺛﻨﺎء ﻛﺘﺎﺑﺘﮫ ﻟﻠﺠﻤﻞ ﺑﻨﻔﺲ اﻟﻌﻤﻠﯿﺔ اﻟﺘﻲ ﺗﻤﺮﱡ ً ﺑﮭﺎ ً‬ ‫حالة‬
‫اﻵﻟﺔ اﻟﺘﻲ ﺷﺮﺣﻨﺎھﺎ ﻓﻲ‬
‫متر هبا اآللة‬ ‫العملية التي ُّ‬ ‫توليدية (‪ )Generative Process‬أثناء كتابته للجمل بنفس‬
‫اﻷﻋﻠﻰ‪ .‬وھﻲ أﻧﮫ ﯾﺒﺪأ اﻟﺠﻤﻠﺔ ﺑﺎﻻﻧﺘﻘﺎل ﻣﻦ ﺣﺎﻟﺔ اﻟﺒﺪاﯾﺔ إﻟﻰ واﺣﺪة ﻣﻦ أﺟﺰاء اﻟﻜﻼم‪.‬‬
‫التي رشحناها يف األعىل‪ .‬وهي أنه يبدأ اجلملة باالنتقال من حالة البداية إىل واحدة من‬
‫اﺧﺘﺎره‪ ،‬وھﻲ ﻣﺎ ﻧﺮاه ﻓﻲ اﻟﻨﺺ‪ .‬ﺛﻢ‬
‫كلمة بنا ًء عىل جزء الكالم الذي اختاره‪ ،‬وهي ما نراه يف‬ ‫اﻟﺬي ٍ‬ ‫ﺛﻢ ﯾﻘﻮم ﺑﺘﻮﻟﯿﺪ ﻛﻠﻤ ٍﺔ ﺑﻨﺎ ًء ﻋﻠﻰ ﺟﺰء اﻟﻜﻼم‬
‫أجزاء الكالم‪ .‬ثم يقوم بتوليد‬
‫ﯾﻨﺘﻘﻞ إﻟﻰ ﺟﺰء ﻛﻼم آﺧﺮ ﺑﻨﺎ ًء ﻋﻠﻰ اﻟﺠﺰء اﻟﺤﺎﻟﻲ‪ .‬وﺑﻌﺪ اﻧﺘﻘﺎﻟﮫ ﯾﻘﻮم ﺑﺘﻮﻟﯿﺪ ﻛﻠﻤﺔ‬
‫انتقاله يقوم بتوليد كلمة‬ ‫النص‪ .‬ثم ينتقل إىل جزء كالم آخر بنا ًء عىل اجلزء احلايل‪ .‬وبعد‬
‫اﻟﺠﻤﻠﺔتوليد اجلملة كاملة‪.‬‬ ‫ينتهي من‬ ‫حتىﺗﻮﻟﯿﺪ‬ ‫وهكذاﻣﻦ‬‫إليه‪ .‬ﯾﻨﺘﮭﻲ‬‫انتقل ﺣﺘﻰ‬ ‫الذيوھﻜﺬا‬
‫اجلزء إﻟﯿﮫ‪.‬‬
‫هذا اﻧﺘﻘﻞ‬ ‫عىلاﻟﺬي‬ ‫اﻟﺠﺰء‬ ‫أﺧﺮى ﺑﻨﺎ ًء ﻋﻠﻰ ھﺬا‬
‫أخرى بنا ًء‬
‫ﺳﻠﺴﻠﺔسلسلة أجزاء الكالم‬ ‫باختيار‬ ‫وذﻟﻚوذلك‬
‫ﺑﺎﺧﺘﯿﺎر‬ ‫مجلة ما‪،‬‬ ‫ﺟﻤﻠﺔيف ﻣﺎ‪،‬‬
‫للكلامت‬ ‫أجزاء ﻟالكالم‬
‫ﻠﻜﻠﻤﺎت ﻓﻲ‬ ‫استنتاج اﻟﻜﻼم‬ ‫ﻛﺎﻣﻠﺔ‪ .‬ﯾﻤﻜﻦ يمكن‬
‫اﺳﺘﻨﺘﺎج أﺟﺰاء‬
‫االحتاملية أدناه‪ ،‬والتي‬ ‫اﻷﻋﻠﻰ ْفق َو ْﻓﻖ‬
‫الدالةاﻟﺪاﻟﺔ‬ ‫اﻻﺣﺘﻤﺎﻟﯿﺔاألعىل َو‬
‫اﻟﻘﯿﻤﺔاالحتاملية‬ ‫التي هلاﻟﮭﺎالقيمة‬
‫أﺟﺰاء اﻟﻜﻼم !𝑠𝑠 ‪ 𝑠𝑠! , 𝑠𝑠! , … . ,‬اﻟﺘﻲ‬
‫أﺛﻨﺎءمن‬
‫كونة‬ ‫جلملة ُم‬
‫اﻟﻜﻼم َّ‬ ‫توليده‬
‫أﺟﺰاء‬ ‫أثناء‬
‫اﺣﺘﻤﺎﻻتﻣﻦ‬ ‫أﺛﻨﺎء‬
‫ﺑﺴﻠﺴﻠﺔ‬ ‫الكالم‬
‫اﻟﻜﻼمإن‬
‫اﻟﻜﺎﺗﺐ‬ ‫أجزاء‬
‫أﺟﺰاء‬
‫ﻣﻄﻠﻖ‪ ،‬إذ‬ ‫ﻣﺮور‬ ‫ﻣﻦمن‬
‫ﺑﺸﻜﻞ‬ ‫بسلسلة‬
‫اﺣﺘﻤﺎل‬
‫ﻋﺸﻮاﺋﯿﺔ‬‫ﺑﺴﻠﺴﻠﺔ‬ ‫الكاتب‬
‫اﻟﻜﺎﺗﺐ‬
‫ﺗﺤﺴﺐ‬
‫ﻟﯿﺴﺖ‬ ‫واﻟﺘﻲﻼﺣﻆ‬ ‫مرور‬
‫ﻣﺮور‬
‫ھﻮ ُﻣ‬ ‫احتامل‬
‫اﺣﺘﻤﺎل‬
‫أدﻧﺎه‪،‬‬
‫ﻛﻤﺎ‬ ‫ﻟﻜﻨﮭﺎ‬ ‫حتسب‬
‫ﺗﺤﺴﺐ‬
‫اﻻﺣﺘﻤﺎﻟﯿﺔ‬
‫ﻣﺠﺎ ًزا‪،‬‬ ‫واﻟﺘﻲ‬
‫"ﻋﺸﻮاﺋﯿﺔ"‬ ‫أدﻧﺎه‪،‬‬
‫ﻋﻠﯿﮭﺎ‬ ‫ﻻﺣﺘﻤﺎﻟﯿﺔ‪1‬ﯾُﻄﻠﻖ‬

‫اﻟﻜﻠﻤﺎت 𝑜𝑜 ‪:𝑜𝑜 , 𝑜𝑜 , … . ,‬‬ ‫ﻣﻦ!𝑜𝑜‪:‬‬‫ﻧﺔ𝑜𝑜 ‪,‬‬


‫… ﱠﻮ‪! ,‬‬ ‫الكلامت !𝑜𝑜 ‪,‬‬
‫ﻟﺠﻤﻠﺔ‪ُ .‬ﻣﻜ‬ ‫اﻟﻜﻠﻤﺎت‬ ‫اﻷﺣﺪاث ﻣﺨﺘﻠﻔﺔ‪.‬‬
‫ﻮﻟﯿﺪه ﻟﺠﻤﻠﺔ ُﻣﻜ ﱠﻮﻧﺔ ﻣﻦ ﺗﻮﻟﯿﺪه‬
‫!‬ ‫!‬ ‫!‬ ‫‪39‬‬

‫𝑠𝑠(𝑃𝑃!𝑠𝑠 ∧ … ∧ !𝑠𝑠 ∧ !𝑠𝑠(𝑃𝑃‬


‫…∧∧!!𝑜𝑜𝑠𝑠 ∧∧ !!𝑜𝑜 ∧‬
‫) !𝑜𝑜 ∧ … ∧ !𝑜𝑜 ∧ !𝑜𝑜 )∧!!𝑜𝑜𝑠𝑠 ∧∧…‬
‫اﻟﺪﻻﻟﻲ ﻓﻲ اﻟﻔﻀﺎء اﻟﺪﻻﻟﻲ‬
‫اﻟﻔﻀﺎء اﻟﻨﻤﻄﻲ‬
‫ﻓﻲ اﻟﺘﻌﺮف‬
‫‪ 3.2‬اﻟﺘﻌﺮف اﻟﻨﻤﻄﻲ‪3.2‬‬

‫‪(Pattern‬أﻧﮫﺑﺸﻜﻞ ﻣﺨﺘﺼﺮ ﻋﻠﻰ أﻧﮫ‬


‫ﻣﺨﺘﺼﺮ ﻋﻠﻰ‬ ‫‪ (Pattern‬ﺑﺸﻜﻞ‬
‫‪Recognition‬‬ ‫‪Recognition‬اﻟﻨﻤﻄﻲ )‬
‫ﻌﺮف اﻟﺘﻌﺮﱡ ف اﻟﻨﻤﻄﻲ ﯾ)ُﻌﺮف اﻟﺘﻌﺮﱡ ف‬
‫اﻟﻠﻐﺔ‪،‬‬
‫ﺼﺎﺣﺒﮭﺎ‪ .‬وﻓﻲ ﻣﻌﺎﻟﺠﺔ اﻟﻠﻐﺔ‪،‬‬ ‫ﻣﻌﺎﻟﺠﺔ‬
‫اﻟﺘﻲ ﺗُ‬ ‫ﺑﻌﺾوﻓﻲ‬
‫اﻷﻧﻤﺎط‬ ‫ﺼﺎﺣﺒﮭﺎ‪.‬‬‫اﻟﺘﻲ ﺗُ‬
‫ﺧﻼل‬ ‫ﺑﻌﺾ اﻷﻧﻤﺎط‬
‫اﻟﻈﻮاھﺮ ﻣﻦ‬ ‫ف ﻋﻠﻰ‬ ‫ﺧﻼل‬
‫ﻟﺘﻌﺮﱡ ف ﻋﻠﻰ اﻟﻈﻮاھﺮ ﻣﻦاﻟﺘﻌﺮﱡ‬
‫خمتلفة‪.‬‬ ‫األحداث‬
‫اﻟﻤﻤﻜﻦ‬ ‫احتامالتﻣﻦ‬
‫اﻟﻠﻐﻮﯾﺔإن واﻟﺘﻲ‬ ‫اﻟﻤﻤﻜﻦ‬
‫مطلق‪ ،‬إذ‬ ‫ﺑﻌﺾﻣﻦ‬‫واﻟﺘﻲ‬
‫عشوائية بشكل‬
‫اﻟﻈﻮاھﺮ‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫ليست‬ ‫اﻟﻈﻮاھﺮهوﺗُ ُمالحظ‬
‫ﺼﺎﺣﺐ‬ ‫لكنها كام‬
‫اﻟﺘﻲ‬ ‫ﺑﻌﺾا‪،‬‬
‫اﻷﻧﻤﺎط‬ ‫ﺼﺎﺣﺐﻣﻦ‬
‫«عشوائية» جمازً‬ ‫ھﻨﺎﻟﻚ ﺗُ‬
‫عليها‬
‫اﻟﻌﺪﯾﺪ‬ ‫اﻟﺘﻲ‬ ‫اﻷﻧﻤﺎط‬
‫‪ُ -1‬يطلق‬ ‫ھﻨﺎﻟﻚ اﻟﻌﺪﯾﺪ ﻣﻦ‬
‫ﺗﻄﺒﯿﻘﺎت‬
‫ﺳﺒﯿﻞ اﻟﻤﺜﺎل‪ ،‬ﻓﻲ ﺗﻄﺒﯿﻘﺎت‬ ‫ﺳﺒﯿﻞھﺬهاﻟﻤﺜﺎل‪ ،‬ﻓﻲ‬
‫اﻟﻈﻮاھﺮ‪ .‬ﻓﻌﻠﻰ‬ ‫ﻋﻠﻰﻓﻌﻠﻰ‬
‫وﺟﻮد‬ ‫اﻟﻈﻮاھﺮ‪.‬‬
‫ھﺬهﻟﻠﺘﻌﺮف‬ ‫ﺳﺘﺨﺪاﻣﮭﺎ ﻟﻠﺘﻌﺮف ﻋﻠﻰ وﺟﻮد‬
‫اﺳﺘﺨﺪاﻣﮭﺎ‬
‫‪-37-‬‬ ‫ﻟﺘﻌﺮف ﻋﻠﻰ اﻟ ُﻤﺆﻟﱢﻒ‪ ،‬ﯾﻤﻜﻦ‬
‫ﻋﻠﻰ ﱠﺪة ﺑﻌﺾ‬
‫ﻟﻠﻤﺆﻟﻒ ﻟﻠﺘﻌﺮﱡ ف ﻋﻠﻰ ﺑﻌﺾ‬ ‫ﺗﺤﻠﯿﻞﻟﻠﺘﻌﺮﱡ ف‬
‫ﻣﻘﺎﻻت ﻋ‬ ‫ﻣﻘﺎﻻتﻒ‪،‬ﻋ ﱠﺪةﯾﻤﻜﻦ‬
‫ﻟﻠﻤﺆﻟﻒ‬ ‫اﻟﺘﻌﺮفﺗﺤﻠﯿﻞ‬
‫ﻋﻠﻰ اﻟ ُﻤﺆﻟﱢ‬
‫ﻷﻧﻤﺎط اﻟﺘﻲ ﯾﺴﺘﺨﺪﻣﮭﺎ ﻓﻲ أﺳﻠﻮب ﻛﺘﺎﺑﺘﮫ )اﻟﻜﻠﻤﺎت‪ ،‬ﺗﺮاﻛﯿﺐ اﻟﺠﻤﻞ‪ ،‬طﻮل اﻟﺠﻤﻞ‪،‬‬
‫‪ 3.2‬التعرف النمطي يف الفضاء الداليل‬
‫التعرف‬
‫التعرف النمطي (‪ )Pattern Recognition‬بشكل خمترص عىل أنه ُّ‬ ‫ُيعرف ُّ‬
‫عىل الظواهر من خالل بعض األنامط التي تُصاحبها‪ .‬ويف معاجلة اللغة‪ ،‬هنالك العديد‬
‫من األنامط التي تُصاحب بعض الظواهر اللغوية والتي من املمكن استخدامها للتعرف‬
‫عىل وجود هذه الظواهر‪ .‬فعىل سبيل املثال‪ ،‬يف تطبيقات التعرف عىل ا ُملؤ ِّلف‪ ،‬يمكن‬
‫للتعرف عىل بعض األنامط التي يستخدمها يف أسلوب‬ ‫ُّ‬ ‫حتليل مقاالت عدَّ ة للمؤلف‬
‫كتابته (الكلامت‪ ،‬تراكيب اجلمل‪ ،‬طول اجلمل‪ ،‬استخدام الروابط‪ ،‬اإلمالء‪ ،‬وغريها)‪،‬‬
‫ِ‬
‫جمهولة ا ُملؤلف ملعرفة إمكانية أن تكون هذه‬ ‫ٍ‬
‫مقالة‬ ‫ومن َث َّم ُيبحث عن هذه األنامط يف‬
‫املقالة قد كُتبت بواسطته أم ال‪ .‬قد تكون األنامط التي ُيبحث عنها غري معروفة‪ ،‬ويف هذه‬
‫احلالة تُستخدم خوارزميات تعلم اآللة لتعلمها من جمموعة كبرية من النصوص‪ ،‬وقد‬
‫تكون هذه األنامط معروفة‪ ،‬ويف هذه احلالة تُربمج دالة التعرف عليها مبارشة‪ .‬وهذا‬
‫التعرف النمطي املستخدمة يف‬ ‫أهم طرق ُّ‬
‫بسطة عن إحدى ِّ‬ ‫اجلزء هيدف إىل إعطاء فكرة ُم َّ‬
‫ُعرف بتحليل الداللة الكامنة ()‪Latent Semantic Analysis‬‬ ‫املعاجلة الداللية والتي ت َ‬
‫‪ ،)(Landauer & Dumais, 1997; Landauer, Foltz, & Laham, 1998‬والتي هلا‬
‫العديد من االستخدامات من أمهها معرفة الكلامت والسياقات املرتبطة دالل ًّيا‪.‬‬
‫تنص عىل أن‪:‬‬
‫إحدى النظريات املطروحة يف علم الداللة ُّ‬
‫ً‬
‫(مثل‪« :‬عربة‪:‬سيارة»‪،‬‬ ‫ٍ‬
‫معان متقاربة‬ ‫Ÿ Ÿاملرتادفات أو الكلامت التي هلا‬
‫«طائرة‪:‬سيارة»‪« ،‬سيارة‪:‬شاحنة»)‪ ،‬تتواجد عادة يف سياقات متشاهبة‪ ،‬أي أهنا‬
‫ُتاط عادة بنفس املجموعة من الكلامت‪.‬‬
‫فعىل سبيل املثال‪ ،‬نرى أن كلمت َْي «طائرة» و «سيارة» قد تظهر يف هذه اجلمل‪:‬‬
‫«سافرت بالطائرة أنا وصديقي»‪.‬‬
‫ُ‬
‫«ركبت الطائرة حوايل الساعة الثانية عرشة»‪.‬‬
‫ُ‬
‫«سافرت بالسيارة مع عائلتي»‪.‬‬
‫ُ‬
‫«ركبت السيارة قبل قليل»‪.‬‬
‫ُ‬

‫‪-38-‬‬
‫وهذه اجلمل يوجد بينها تقاطع كبري يف الكلامت التي تشري إىل نفس املفاهيم‪.‬‬
‫سمى بالداللة التوزيعية‬
‫لذا فإن هذه النظرية تُصنَّف حتت فرع يف علم الداللة ُي َّ‬
‫هيتم بدراسة املكونات الداللية وتوزيعها‬ ‫(‪ )Distributional Semantics‬والذي ُّ‬
‫يف النصوص‪ .‬يمكن اعتبار أن السياقات املتشاهبة لكلمتني هي أحد األنامط التي من‬
‫خالهلا يمكن معرفة تقارب هاتني الكلمتني دالل ًّيا‪ ،‬أي أهنام مرتبطان بنفس املفهوم‬
‫(‪ .)Concept‬كام أنه ُيمكن اعتبار أن كمية الكلامت املتشاهبة يف السياقات مؤرش ًا عىل‬
‫مدى ارتباط هذه السياقات دالل ًّيا‪ .‬ويف حتليل الداللة الكامنة‪ُ ،‬تثل الكلامت والسياقات‬
‫يف مصفوفة بحيث تكون الكلامت هي صفوف املصفوفة‪ ،‬واألعمدة هي السياقات التي‬
‫ظهرت فيها هذه الكلامت‪ ،‬كام هو موضح أدناه‪ .‬ويطلق عىل هذه التمثيل الفضاء الداليل‬
‫(‪:)Semantic Space‬‬
‫سياق‬
‫‪d1‬‬ ‫‪........‬‬ ‫‪dm‬‬
‫كلمة‬ ‫!𝑤𝑤‬ ‫‪2‬‬ ‫‪0‬‬
‫‪w1‬‬ ‫!𝑤𝑤‪2‬‬ ‫‪1‬‬ ‫‪0‬‬ ‫‪1‬‬

‫‪w2‬‬ ‫‪1.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪1‬‬ ‫‪.‬‬


‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬
‫‪.‬‬ ‫‪..‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬
‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬
‫‪.‬‬ ‫‪..‬‬ ‫‪.‬‬
‫‪.‬‬ ‫‪.‬‬
‫‪.‬‬ ‫‪.‬‬

‫‪.‬‬ ‫!𝑤𝑤‪.‬‬ ‫‪3‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪0‬‬

‫‪wn‬‬ ‫‪3‬‬ ‫‪0‬‬


‫ﺗﻤﺜﻞ ﺧﻼﯾﺎ اﻟﻤﺼﻔﻮﻓﺔ ﻋﺪد ﻣﺮﱠات ظﮭﻮر اﻟﻜﻠﻤﺔ اﻟﺘﻲ ﻓﻲ اﻟﺼﻒ ﻓﻲ اﻟﺴﯿﺎق اﻟﺬي‬
‫مرات ظهور الكلمة التي يف الصف يف السياق الذي يف‬ ‫متثل خاليا املصفوفة عدد َّ‬
‫ﻣﺮﺗﯿﻦ‬ ‫ظﮭﺮت‬ ‫اﻟﻜﻠﻤﺔ !𝑤𝑤‬ ‫ﻧﺠﺪ أن‬ ‫أﻋﻼه‪،‬‬ ‫ً‬ ‫‪1‬‬
‫الكلمة ‪ w1‬ظهرت مرتني يف‬ ‫نجد أن‬ ‫أعاله‪،‬‬ ‫املصفوفة‬ ‫خالل‬ ‫اﻟﻤﺼﻔﻮﻓﺔً‪ ،‬من‬
‫ﺧﻼل(((‪ .‬فمثل‬‫ﻓﻲ اﻟﻌﻤﻮد ‪ .‬ﻓﻤﺜﻼ‪ ،‬ﻣﻦالعمود‬
‫ذكرﻗﺪأن السياق قد يكون ً‬
‫مقال‪،‬‬ ‫اﻟﺴﯿﺎق‬ ‫ُﺬﻛﺮ أن‬
‫وهكذا‪ُ .‬ي‬ ‫وھﻜﺬا‪m .‬ﯾ‪،d‬‬
‫!𝑑𝑑يف‪ ،‬السياق‬ ‫اﻟﺴﯿﺎق َّ‬
‫مرة‬ ‫تظهر وال‬‫ومل ﻓﻲ‬
‫وﻻ ‪d‬ﻣﺮﱠة‬
‫‪1‬‬
‫ﻓﻲ اﻟﺴﯿﺎق !𝑑𝑑 وﻟﻢ ﺗﻈﮭﺮ‬
‫السياق‬
‫ﺑﺤﺴﺐبحسب اهلدف من املعاجلة‪.‬‬
‫وذﻟﻚوذلك‬ ‫النص‪،‬‬ ‫ﻣﻦد من‬
‫اﻟﻨﺺ‪،‬‬ ‫جزءد ُمدَّ‬
‫أي ُﻣﺤ ﱠﺪ‬‫ي أو َّ‬
‫ﺟﺰء‬ ‫مجلة‪ ،‬ﱠ‬
‫ﺟﻤﻠﺔ‪،‬أو أو أ‬
‫مقط ًعا‪،‬‬ ‫ﻣﻘﺎﻻ‪ ،‬أو ﻣﻘﻄﻌأو‬
‫ًﺎ‪ ،‬أو‬ ‫ً‬ ‫ﯾﻜﻮن‬
‫والتي حتتوي‬
‫ﺗﺤﺘﻮي ‪ n‬من الكلامت ظهرت يف‬ ‫ﺑﺎﻟﺮﻣﺰ !‪ ،،𝐴𝐴!,‬واﻟﺘﻲ‬
‫أعاله بالرمز‬ ‫ﻔﻮﻓﺔ أﻋﻼه‬‫املصفوفة‬
‫إىل اﻟﻤﺼ‬
‫أرشناإﻟﻰ‬
‫فلوأﺷﺮﻧﺎ‬
‫اﻟﮭﺪف ﻣﻦ اﻟﻤﻌﺎﻟﺠﺔ‪ .‬ﻓﻠﻮ‬
‫𝑛𝑛 ﻣﻦ اﻟﻜﻠﻤﺎت ظﮭﺮت ﻓﻲ 𝑚𝑚 ﻣﻦ اﻟﺴﯿﺎﻗﺎت‪ ،‬ﻓﺈن ﺗﺤﻠﯿﻞ اﻟﺪﻻﻟﺔ اﻟﻜﺎﻣﻨﺔ ﯾﻘﻮم ً‬
‫أوﻻ‬
‫وهنالك طرق متعددة لوزن الكلمة يمكن‬
‫السياق‪َ .‬ﺮف‬ ‫وزن الكلمة يف‬
‫رﯾﺎﺿﻲ ﯾُﻌ‬ ‫يستخدم‬
‫ﺗﺤﻠﯿﻞ‬ ‫الكلمة‪ ،‬وإنام‬
‫ﺑﺎﺳﺘﺨﺪام‬ ‫ستخدم عدد ظهور‬
‫ﻣﺼﻔﻮﻓﺎت‬ ‫إﻟﻰا ال ُيﺛﻼث‬
‫‪ -1‬غال ًب‬
‫اﻟﻤﺼﻔﻮﻓﺔ‬ ‫ﺑﺘﺤﻠﯿﻞ ھﺬه‬
‫الرجوع إليها يف (‪ ،)Manning & Schütze, 1999‬ولكن استخدمنا هنا عدد ظهور الكلمة لتبسيط الرشح‪.‬‬
‫������ ������ ������� ) ‪Singular Value‬‬
‫‪-39-‬‬ ‫‪ 2(Decomposition –SVD‬ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫!‬
‫𝐴𝐴‬ ‫𝑈𝑈 =‬ ‫𝑆𝑆 ∗‬ ‫𝐷𝐷 ∗‬ ‫‪3‬‬
‫ي ﺟﺰء ُﻣﺤ ﱠﺪد ﻣﻦ اﻟﻨﺺ‪ ،‬وذﻟﻚ ﺑﺤﺴﺐ‬ ‫ﯾﻜﻮن ‪ً .‬‬
‫ﻣﻘﺎﻻ‪ ،‬أو ﻣﻘﻄﻌًﺎ‪ ،‬أو ﺟﻤﻠﺔ‪ ،‬أو أ ﱠ‬ ‫‪.‬‬
‫‪.‬‬ ‫‪.‬‬
‫اﻟﮭﺪف ﻣﻦ اﻟﻤﻌﺎﻟﺠﺔ‪ .‬ﻓﻠﻮ أﺷﺮﻧﺎ إﻟﻰ اﻟﻤﺼﻔﻮﻓﺔ أﻋﻼه ﺑﺎﻟﺮﻣﺰ !‪ ،𝐴𝐴!,‬واﻟﺘﻲ ﺗﺤﺘﻮي‬
‫‪.‬‬ ‫‪.‬‬
‫اﻟﻜﻠﻤﺎت ظﮭﺮت ﻓﻲ 𝑚𝑚 ﻣﻦ اﻟﺴﯿﺎﻗﺎت‪ ،‬ﻓﺈن ﺗﺤﻠﯿﻞ اﻟﺪﻻﻟﺔ اﻟﻜﺎﻣﻨﺔ ﯾﻘﻮم ً‬
‫أوﻻ‬ ‫𝑛𝑛 ﻣﻦ !𝑤𝑤‬ ‫‪3‬‬
‫ﺑﺘﺤﻠﯿﻞ ھﺬه اﻟﻤﺼﻔﻮﻓﺔ إﻟﻰ ﺛﻼث ﻣﺼﻔﻮﻓﺎت ﺑﺎﺳﺘﺨﺪام ﺗﺤﻠﯿﻞ رﯾﺎﺿﻲ ﯾُﻌﺮف‬
‫أول بتحليل هذه املصفوفة إىل َ‬
‫‪ n‬من السياقات‪ ،‬فإن حتليل الداللة الكامنة يقوم ً‬
‫ثالث‬
‫‪SingularValue‬‬
‫‪Value‬‬ ‫�������‬
‫القيمة )‬
‫املفردة (‬ ‫عرف بتفكيك‬ ‫باستخدام ������‬ ‫������‬
‫‪Singular‬‬ ‫اﻟﺬي حتليل ريايض ُي َ‬ ‫مصفوفاتاﻟﺴﯿﺎق‬
‫ﻠﻤﺔ اﻟﺘﻲ ﻓﻲ اﻟﺼﻒ ﻓﻲ‬
‫‪2‬‬
‫‪ (Decomposition‬ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫‪–SVD‬‬
‫كالتايل‪:‬ھﻲ ����� )‪ (Factors‬ﻟﻠﻤﺼﻔﻮﻓﺔ‬ ‫‪)Decomposition‬‬
‫(((‬
‫اﻟﺜﻼث أﻋﻼه‬ ‫ﻣﺮﺗﯿﻦ‬ ‫إنظﮭﺮت‬
‫اﻟﻤﺼﻔﻮﻓﺎت‬ ‫‪–SVD‬‬ ‫ه‪ ،‬ﻧﺠﺪ أن اﻟﻜﻠﻤﺔ‬
‫ﺣﯿﺚ!𝑤𝑤‬
‫ﺣﯿﺚ إن اﻟﻤﺼﻔﻮﻓﺎت اﻟﺜﻼث أﻋﻼه ھﻲ ����� )‪ (Factors‬ﻟﻠﻤﺼﻔﻮﻓﺔ‬
‫((( !‬
‫اﻟﻜﻠﻤﺎت ﻓﻲ‬
‫اﻟﻜﻠﻤﺎت ﻓﻲ‬ ‫!‪𝑈𝑈!,‬‬
‫!‪𝐴𝐴!,‬‬
‫اﻟﻤﺼﻔﻮﻓﺔ !‪0 𝑈𝑈!,‬‬
‫اﻟﻤﺼﻔﻮﻓﺔ‬
‫ﺗﻤﺜﻞ=‬ ‫ﺗﻤﺜﻞ‬
‫اﻟﺘﺤﻠﯿﻞ‪∗ 𝑆𝑆،‬‬
‫اﻟﺘﺤﻠﯿﻞ‪𝑈𝑈!,!،‬‬
‫∗ا !‪!,‬‬
‫𝐷𝐷 ھﺬ‬ ‫!‪!,‬ا‬
‫ﺧﻼل‬‫ﺧﻼل ھﺬ‬
‫وﻣﻦ‬ ‫وﻣﻦ ‪3‬‬
‫!‪!,‬ﻗﺪ𝐴𝐴‪.‬‬
‫اﻟﺴﯿﺎق‬
‫!‪.𝐴𝐴!,‬‬ ‫ُﺬﻛﺮ أن‬
‫اﻟﺮﺋﯿﺴﯿﺔ‬ ‫ق !𝑑𝑑‪ ،‬وھﻜﺬا‪ .‬ﯾ‬
‫اﻟﺮﺋﯿﺴﯿﺔ‬
‫الرئيسية‬
‫اﻷﺑﻌﺎد‬ ‫للمصفوفة‬
‫اﻷﺑﻌﺎد‬
‫‪1‬‬
‫ﻣﻦ‬ ‫‪𝑗𝑗)Factors‬ﻣﻦﻣﻦ𝑗𝑗‬
‫ﻣﻦن‬ ‫عواملُﻣﻜ(‬
‫ﻣﺨﺘﻠﻒ ﱠﻮن ُﻣﻜ ﱠﻮ‬ ‫ﻣﺨﺘﻠﻒ‬‫أعاله هي‬
‫ﻓﻀﺎء‬ ‫الثالث ﻓﻲ‬
‫ﻓﻀﺎء‬ ‫وﻟﻜﻦ ﻓﻲ‬
‫وﻟﻜﻦ‬ ‫املصفوفات‬
‫ﺑﺤﺴﺐ‬
‫اﻟﺮﺋﯿﺴﯿﺔ‬‫اﻟﺮﺋﯿﺴﯿﺔ‬ ‫حيث إن‬
‫وذﻟﻚ‬
‫اﻟﻤﺼﻔﻮﻓﺔ‬
‫ﺟﺰء ُﻣﺤ ﱠﺪد ﻣﻦ اﻟﻨﺺ‪،‬‬
‫اﻟﻤﺼﻔﻮﻓﺔ‬
‫‪.‬‬ ‫الرئيسية‬ ‫املصفوفة‬
‫وھﻨﺎﻟﻚ طﺮق ‪.‬‬
‫ﻣﺘﻌﺪدة ﻟﻮزن‬ ‫املصفوفة اﻟﻜﻠﻤﺔ ﻓﻲ اﻟﺴﯿﺎق‪.‬‬
‫الكلامت يف‬ ‫متثلﯾﺴﺘﺨﺪم وزن‬
‫التحليل‪،‬وإﻧﻤﺎ‬ ‫هذا‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ظﮭﻮر اﻟﻜﻠﻤﺔ‪،‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫ﻋﺪد(‪،‬‬
‫خالل‬
‫ﺗﺤﺘﻮي‬ ‫ومنﯾ‬
‫𝐴𝐴‪،.‬ﻏﺎﻟﺒًﺎ ﻻ‬
‫واﻟﺘﻲ‬
‫‪،(Dimensions‬‬
‫ُﺴﺘﺨﺪم‬
‫‪Dimensions‬‬ ‫ﺔ أﻋﻼه ﺑﺎﻟﺮﻣﺰ) !‪1 !,‬‬
‫)‬
‫اﻟﻜﻠﻤﺔ ﯾﻤﻜﻦ اﻟﺮﺟﻮع إﻟﯿﮭﺎ ﻓﻲ )‪ ،(Manning & Schütze, 1999‬وﻟﻜﻦ اﺳﺘﺨﺪﻣﻨﺎ ھﻨﺎ ﻋﺪد‪ .‬ظﮭﻮر‬
‫‪.‬‬
‫كون من من األبعاد (‪ ،)Dimensions‬كالتايل‪:‬‬ ‫خمتلف ُم َّ‬
‫ﯾﻘﻮم ً‬
‫أوﻻ‬
‫اﻟﺸﺮح‪.‬‬ ‫فضاء‬
‫ﺒﺴﯿﻂ‬ ‫ولكن يف‬
‫اﻟﻜﺎﻣﻨﺔ‬
‫اﻟﻜﻠﻤﺔ ﻟﺘ‬ ‫‪ ،‬ﻓﺈن ﺗﺤﻠﯿﻞ اﻟﺪﻻﻟﺔ‬
‫‪.‬‬ ‫‪.‬‬
‫‪2‬اﻟﺘﺮﺟﻤﺔ ھﻨﺎ ﻣﻦ اﻹﻧﺠﻠﯿﺰﯾﺔ إﻟﻰ اﻟﻌﺮﺑﯿﺔ اﺟﺘﮭﺎد ﻣﻨﻲ وﻗﺪ ﻻ ﺗﻜﻮن ھﻲ اﻟﺘﺮﺟﻤﺔ اﻟﻤﺴﺘﺨﺪﻣﺔ ﻓﻲ أدﺑﯿﺎت‬
‫‪.‬‬ ‫‪.‬‬ ‫بعد‬ ‫اﻟﻌﺮب‪.‬ﺮف‬
‫رﯾﺎﺿﻲ ﯾُﻌ َ‬
‫ﺗﺤﻠﯿﻞ اﻟﺮﯾﺎﺿﯿﯿﻦ‬ ‫ت ﺑﺎﺳﺘﺨﺪام‬
‫ﺑﻌﺪ‬ ‫‪Dim‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪Dimj‬‬
‫𝐷𝐷𝐷𝐷𝐷𝐷 ‪𝐷𝐷 ! 3‬‬
‫!𝐷𝐷𝐷𝐷𝐷𝐷 !𝐷𝐷𝐷𝐷𝐷𝐷 ﺑﻌﺪ ‪ 0‬كلمة‬
‫إﻟﻰ ﺻﻔﻮف‪ ،‬ﻓﺘﻜﻮن‬ ‫واﻷﻋﻤﺪة‬ ‫أﻋﻤﺪة‬ ‫إﻟﻰ‬ ‫اﻟﺼﻔﻮف‬ ‫ﺗﺒﺪﯾﻞ‬ ‫ﯾﻌﻨﻲ‬ ‫واﻟﺬي‬ ‫‪،‬‬ ‫𝐷𝐷‬ ‫اﻟﻤﺼﻔﻮﻓﺔ‬ ‫ﻣﻨﻘﻮل‬ ‫ھﻮ‬
‫‪1‬‬
‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪Singular‬‬ ‫���� )‬
‫‪. . . . . . . .‬‬ ‫‪𝐷𝐷Value‬‬
‫𝐷𝐷𝐷𝐷𝐷𝐷=‬
‫!‬ ‫!‬
‫!‪𝐷𝐷!,‬‬
‫ﻛﻠﻤﺔ ﻛﻠﻤﺔ‬
‫!‬
‫!‪!,‬‬
‫‪w1‬‬ ‫‪-0.1‬‬ ‫‪0.2‬‬
‫!𝑤𝑤‬ ‫‪-0.1 -0.1‬‬ ‫‪0.2 0.2‬‬
‫‪42‬‬
‫𝑤𝑤‬ ‫!‬
‫‪w‬‬ ‫‪-0.3‬‬ ‫‪-0.5‬‬
‫ﺗﻤﺜﻞ𝑤𝑤 ﺧﻼﯾﺎ اﻟﻤﺼﻔﻮﻓﺔ ﻋﺪد ﻣﺮﱠات ظﮭ‬
‫!‬
‫𝑤𝑤‪2‬‬
‫!‬ ‫‪-0.3 -0.3‬‬ ‫‪-0.5 -0.5‬‬
‫!‪𝐴𝐴!,‬‬ ‫!‪= 𝑈𝑈!,‬‬
‫‪ . .‬ﻓﻲ ‪.‬اﻟﻌﻤﻮد‪ً .1‬‬
‫ﻓﻤﺜﻼ‪ ،‬ﻣﻦ ﺧﻼل اﻟﻤﺼﻔﻮ‬ ‫‪.‬‬ ‫‪. .‬‬ ‫‪.‬‬ ‫‪..‬‬ ‫‪. . .‬‬

‫‪ .‬ﻓﻲ ‪.‬اﻟﺴﯿﺎق !𝑑𝑑 وﻟﻢ ﺗﻈﮭﺮ وﻻ ﻣﺮﱠة ﻓ‬ ‫‪.‬‬ ‫‪..‬‬ ‫‪. .‬‬
‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬
‫!𝑤𝑤 !𝑤𝑤‬ ‫‪0.4‬‬ ‫‪0.4‬‬ ‫‪ 0.3‬ﻣﺘﻌﺪدة ﻟﻮزن‬ ‫ﻟﻜﻠﻤﺔ ﻓﻲ اﻟﺴﯿﺎق‪0.3 .‬‬
‫وھﻨﺎﻟﻚ طﺮق‬
‫ً‬
‫ﻣﻘﺎﻻ‪ ،‬أو ﻣﻘﻄﻌًﺎ‪ ،‬أو ﺟﻤﻠﺔ‪ ،‬أ‬ ‫ﯾﻜﻮن‬
‫‪wn‬‬ ‫‪0.4‬‬ ‫‪0.3‬‬
‫‪ ،(Mann‬وﻟﻜﻦ اﺳﺘﺨﺪﻣﻨﺎ ھﻨﺎ ﻋﺪد ظﮭﻮر‬
‫اﻟﮭﺪف ﻣﻦ اﻟﻤﻌﺎﻟﺠﺔ‪ .‬ﻓﻠﻮ أﺷﺮﻧﺎ إﻟﻰ اﻟ‬
‫ﻻ ﺗﻜﻮن ھﻲ اﻟﺘﺮﺟﻤﺔ اﻟﻤﺴﺘﺨﺪﻣﺔ ﻓﻲ أدﺑﯿﺎت‬
‫ھﺬا‬
‫اﻟﻔﻀﺎء‪ .‬ﻣﻦ‬
‫اﻟﻔﻀﺎء‪ .‬هذا‬
‫الفضاء‪.‬‬ ‫ﻧﻔﺲ‬
‫ﻓﻲنفس‬ ‫اﻟﺴﯿﺎﻗﺎت ﻓﻲ‬
‫السياقات يف‬ ‫ﻟﻠﻤﺼﻔﻮﻓﺔ𝐷𝐷 اﻟﺘﻲ𝐷𝐷 ﺗﻤﺜﻞ‬
‫اﻟﺘﻲ متثل‬
‫التي‬ ‫ﻟﻠﻤﺼﻔﻮﻓﺔ !‪!,‬‬ ‫ﺑﺎﻟﻨﺴﺒﺔ‬
‫اﻟﺤﺎلاحلال‬
‫وﻧﻔﺲونفس‬
‫ھﺬا‬
‫اﻟﻜﻠﻤﺎت ظﮭﺮت ﻓﻲ 𝑚𝑚 ﻣﻦ اﻟ‬ ‫ﻧﻔﺲ 𝑛𝑛‬ ‫اﻟﺴﯿﺎﻗﺎت‬ ‫ﺗﻤﺜﻞ‬ ‫ﺑﺎﻟﻨﺴﺒﺔللمصفوفة !‪!,‬‬
‫بالنسبة‬‫اﻟﺤﺎل‬ ‫وﻧﻔﺲ‬
‫ﻮف إﻟﻰ أﻋﻤﺪة واﻷﻋﻤﺪة إﻟﻰ ﺻﻔﻮف‪ ،‬ﻓﺘﻜﻮن‬
‫بكلمة‬
‫إﻟﯿﮫاﻟﻤﺼﻔﻮﻓﺔ إﻟﻰ ﺛﻼث ﻣ‬ ‫اﻟﻤﺸﺎرإليه‬
‫إﻟﯿﮫ‬
‫اﻟﻤﺸﺎرھﺬه‬ ‫املشار‬
‫ﺑﺘﺤﻠﯿﻞ‬ ‫املفاهيم وهو‬
‫وھﻮ‬ ‫فضاءﻓﻀﺎء‬
‫اﻟﻤﻔﺎھﯿﻢ‬
‫اﻟﻤﻔﺎھﯿﻢ وھﻮ‬ ‫يمثل ﯾﻤﺜﻞ‬
‫ﻓﻀﺎء‬ ‫األبعاد ﯾﻤﺜﻞ‬
‫اﻷﺑﻌﺎد‬
‫اﻷﺑﻌﺎد‬ ‫منن𝑗𝑗 ﻣ‬
‫من 𝑗𝑗 ﻣﻦ‬
‫ﻣﻦﻦ‬ ‫كوناﻟن ُﻤﻜ ﱠﻮ‬
‫ﻣﻦ‬ ‫اجلديداﻟا ُﻤُملﻜ‬
‫اﻟﺠﺪﯾﺪ ﱠﻮ َّ‬ ‫اﻟﺠﺪﯾﺪ‬
‫اﻟﻔﻀﺎء‬‫الفضاء‬
‫اﻟﻔﻀﺎء‬
‫ظﺎھﺮيفﻓﻲالفضاء الداليل‬
‫������ ������ �‬ ‫ﻏﯿﺮظاهر‬
‫اﻟﻔﻀﺎءغري‬
‫اﻟﺘﺤﻠﯿﻞ‪ ،‬إذإن إنهذاھﺬاالفضاء‬
‫طريقة التحليل‪ ،‬إذ‬ ‫اسم‬ ‫«الكامن» يف‬
‫اﻟﻔﻀﺎءاﻟﻔﻀﺎء‬
‫اﻟﻔﻀﺎء ﻏﯿﺮ ظﺎھﺮ ﻓﻲ‬ ‫طﺮﯾﻘﺔطﺮﯾﻘﺔ اﻟﺘﺤﻠﯿﻞ‪ ،‬إذ إن ھﺬا‬
‫"اﻟﻜﺎﻣﻦ"اﺳﻢﻓﻲ اﺳﻢ‬
‫"اﻟﻜﺎﻣﻦ" ﻓﻲ‬
‫ﺑﻜﻠﻤﺔ ﺑﻜﻠﻤﺔ‬
‫الكلامت‬
‫‪ 2(Decomposition‬ﻛﺎﻟﺘﺎﻟﻲ‬ ‫‪–SVD‬‬‫تتقارب‬
‫اﻟﻔﻀﺎء‬ ‫الفضاء ھﺬا‬ ‫حتليلها‪.‬ﺑﻌﺪيف هذا‬
‫ﺗﺤﻠﯿﻠﮭﺎ‪ .‬ﻓﻲ‬ ‫ظهر بعد‬
‫وإﻧﻤﺎ ظﮭﺮ‬ ‫اﻟﻤﺼﻔﻮﻓﺔ وإنام‬
‫اﻷﺻﻠﯿﺔ‬ ‫املصفوفة األصلية‬
‫اﻷﺻﻠﻲ ﻓﻲ‬‫األصيل يف‬
‫اﻟﺪﻻﻟﻲ‬
‫اﻟﺪﻻﻟﻲ اﻷﺻﻠﻲ ﻓﻲ اﻟﻤﺼﻔﻮﻓﺔ اﻷﺻﻠﯿﺔ وإﻧﻤﺎ ظﮭﺮ ﺑﻌﺪ ﺗﺤﻠﯿﻠﮭﺎ‪ .‬ﻓﻲ ھﺬا اﻟﻔﻀﺎء‬
‫اﻟﺴﯿﺎﻗﺎت‪،‬بعضها كام هو‬
‫ﻧﻔﺲ قريبة من‬
‫وتكون‬ ‫السياقات‪،‬‬ ‫عادة يف نفس‬ ‫تظهردﻻﻟﯿًّ‬ ‫اﻟﻜﻠﻤﺎت والتي‬
‫املرتبطة دالل ًّيا‪،‬‬
‫وﺗﻜﻮنوﺗﻜﻮن‬ ‫ﺗﻈﮭﺮ ﻓﻲ‬
‫ﺗﻈﮭﺮ ﻋﺎدة‬
‫واﻟﺘﻲ واﻟﺘﻲ‬
‫اﻟﻤﺮﺗﺒﻄﺔﺎ‪،‬دﻻﻟﯿًّﺎ‪،‬‬‫اﻟﻤﺮﺗﺒﻄﺔ‬
‫ﺗﺘﻘﺎربﺗﺘﻘﺎرب اﻟﻜﻠﻤﺎت‬
‫!‬
‫!‪∗ 𝐷𝐷!,‬‬ ‫‪3‬‬ ‫ﻓﻲ ﻧﻔﺲ اﻟﺴﯿﺎﻗﺎت‪،‬‬ ‫ﻋﺎدة‬
‫!‬
‫موضح يف الشكل ‪ ،3‬وكذلك احلال بالنسبة للسياقات التي تُشري إىل نفس املفاهيم‪.‬‬
‫ﻟﻠﺴﯿﺎﻗﺎت‬ ‫ﺑﺎﻟﻨﺴﺒﺔ ﻟﻠﺴﯿﺎﻗﺎت‬ ‫وﻛﺬﻟﻚ اﻟﺤﺎل‬ ‫اﻟﺸﻜﻞ ‪،3‬‬ ‫ﻣﻮﺿﺢ ﻓﻲ‬ ‫ﺑﻌﻀﮭﺎھﻮﻛﻤﺎ‬
‫ﺑﻌﻀﮭﺎ ﻛﻤﺎ‬ ‫ﻗﺮﯾﺒﺔ ﻣﻦ‬
‫ﺑﺎﻟﻨﺴﺒﺔمن خالل‬ ‫اﻟﺤﺎلالفضاء‬
‫وﻛﺬﻟﻚيف هذا‬
‫املتقاربة‪،3‬دالل ًّيا‬
‫اﻟﺸﻜﻞ‬ ‫ﻣﻮﺿﺢ ﻓﻲ‬
‫السياقات‪،‬‬ ‫ھﻮأو‬
‫الكلامت‪،‬‬ ‫ﻗﺮﯾﺒﺔ ﻣﻦ‬
‫احلصول عىل‬ ‫يمكن‬
‫اﻟﻤﺘﻘﺎرﺑﺔ‬ ‫اﻟﺴﯿﺎﻗﺎت‪،‬‬ ‫أو‬ ‫اﻟﻜﻠﻤﺎت‪،‬‬ ‫ﻋﻠﻰ‬ ‫اﻟﺤﺼﻮل‬ ‫ﯾﻤﻜﻦ‬ ‫اﻟﻤﻔﺎھﯿﻢ‪.‬‬ ‫ﻧﻔﺲ‬ ‫إﻟﻰ‬ ‫ﺸﯿﺮ‬ ‫اﻟﺘﻲ ﺗُ‬
‫اﻟﻤﺘﻘﺎرﺑﺔ‬ ‫اﻟﺴﯿﺎﻗﺎت‪،‬‬
‫إنه أوكلام اقرتب‬
‫اﻟﻜﻠﻤﺎت‪،‬‬
‫ﻋﻠﻰ حيث‬ ‫اﻟﺤﺼﻮل‬ ‫ﯾﻤﻜﻦ عن‬ ‫اﻟﻤﻔﺎھﯿﻢ‪.‬‬
‫ﻧﻔﺲ ُبعد‬ ‫اﻟﺘﻲ ﺗُدالة‬
‫ﺸﯿﺮ إﻟﻰ‬
‫ُﺴﺘﺨﺪم ﻋﺪد ظﮭﻮر اﻟﻜﻠﻤﺔ‪ ،‬وإﻧﻤﺎ ﯾﺴﺘﺨ‬ ‫ﻏﺎﻟﺒًﺎ ﻻ ﯾ‬‫‪1‬‬
‫متجهان‬
‫اﻟﺮﺟﻮع إﻟﯿﮭﺎ ﻓﻲ )‪chütze, 1999‬‬ ‫اﻟﻜﻠﻤﺔ ﯾﻤﻜﻦ‬ ‫بعضها‪،‬‬ ‫املتجهات‬ ‫حلساب‬ ‫استخدام‬
‫ﺑﻌﻀﮭﺎ‪،‬ﺒﺴﯿﻂ‬
‫ﺑﻌﻀﮭﺎ‪،‬‬
‫اﻟﺸﺮح‪.‬‬ ‫اﻟﻤﺘﺠﮭﺎت ﻋﻦ‬
‫اﻟﻤﺘﺠﮭﺎت ﻋﻦ‬
‫اﻟﻜﻠﻤﺔ ﻟﺘ‬ ‫ﻟﺤﺴﺎب ﺑُﻌﺪ‬
‫ﻟﺤﺴﺎب ﺑُﻌﺪ‬ ‫اﺳﺘﺨﺪام داﻟﺔ‬
‫اﺳﺘﺨﺪام داﻟﺔ‬ ‫ﺧﻼل ﺧﻼل‬ ‫اﻟﻔﻀﺎء ﻣﻦ‬
‫اﻟﻔﻀﺎء ﻣﻦ‬ ‫دﻻﻟﯿًّﺎ ﻓﻲ‬
‫دﻻﻟﯿًّﺎھﺬاﻓﻲ ھﺬا‬
‫‪2‬اﻟﺘﺮﺟﻤﺔ ھﻨﺎ ﻣﻦ اﻹﻧﺠﻠﯿﺰﯾﺔ إﻟﻰ اﻟﻌﺮﺑﯿﺔ اﺟﺘﮭﺎد‬
‫اﻟﻌﺮب‪.‬‬
‫ازداد‬ ‫ازداد‬
‫اﻟﺮﯾﺎﺿﯿﯿﻦ‬
‫ﻟﻔﻀﺎء‬ ‫ﻟﻔﻀﺎء‬ ‫ﺑﻌﻀﮭﺎھﺬا ا‬
‫ﻓﻲ ھﺬا ا‬ ‫ﺑﻌﻀﮭﺎ ﻓﻲ‬ ‫ﺳﯿﺎﻗﯿﻦ ﻣﻦ‬
‫ﺳﯿﺎﻗﯿﻦ ﻣﻦ‬ ‫أوﺘﯿﻦ أو‬‫ﻟﻜﻠﻤنﺘﯿﻦﻟﻜﻠﻤ‬
‫ﻣﺘﺠﮭﺎنﻣﺘﺠﮭﺎ‬
‫اﻗﺘﺮباﻗﺘﺮب‬ ‫ﻛﻠﻤﺎﻧﮫ ﻛﻠﻤﺎ‬
‫ﺣﯿﺚ إ‬ ‫ﺣﯿﺚ إﻧﮫ‬
‫العرب‪.‬‬
‫ﻣﻨﻘﻮل اﻟﻤﺼﻔﻮﻓﺔ 𝐷𝐷‪ ،‬واﻟﺬي ﯾﻌﻨﻲ ﺗ‬ ‫الرياضيني𝐷𝐷 ھﻮ‬
‫!‬
‫‪ -1‬الرتمجة هنا من اإلنجليزية إىل العربية اجتهاد مني وقد ال تكون هي الرتمجة املستخدمة يف أدبيات ‪3‬‬
‫!‬
‫!‪𝐷𝐷!,‬‬ ‫‪ DT -2‬هو منقول املصفوفة ‪ ،D‬والذي يعني تبديل الصفوف إىل أعمدة واألعمدة إىل صفوف‪ ،‬فتكون !‪= 𝐷𝐷!,‬‬

‫‪43‬‬
‫‪43‬‬
‫‪-40-‬‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 اﻟﺸﮭﯿﺮة‪ ،‬واﻟﺘﻲ ﺗﻘﯿﺲ اﻟﺰاوﯾﺔ ﺑﯿﻦ ﻣﺘﺠﮭﯿﻦ !𝒖𝒖𝒖𝒖و !𝒖𝒖𝒖𝒖ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻟﺤﺴﺎب ُ‬ ‫ﻟﺤﺴﺎب ﻗُ‬
‫ﻣﺘﺠﮭﯿﻦ داﻟﺔ‬
‫داﻟﺔ‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫ﺮبداﻟﺔ‬
‫ﺮب𝒖𝒖𝒖𝒖‬
‫داﻟﺔ‬ ‫ﻟﺤﺴﺎب𝒖𝒖𝒖𝒖ﻗﻗُ‪.‬‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫ﻣﺘﺠﮭﯿﻦ‬ ‫ﺮب‬ ‫ﺗﺴﺘﺨﺪمﻗُ‬
‫ﺗﺴﺘﺨﺪمﺮب‬
‫!‬
‫ﻟﺤﺴﺎب‬‫اﻟﺘﻲ‬
‫ﺗﺴﺘﺨﺪم‬
‫اﻟﺘﻲ‬ ‫اﻟﺘﻲاﻟﺪوال‬
‫ﺗﺴﺘﺨﺪم‬
‫!‬
‫اﻟﺪوال‬ ‫اﻟﺘﻲ‬
‫وﻣﻦ‬
‫وﻣﻦ‬ ‫اﻟﺪوال‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫اﻟﺪوال‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬‫وﻣﻦ‬
‫وﻣﻦ‬‫اﻟﺪﻻﻟﻲ‬
‫ططﯿﻨﮭﻤﺎ‪.‬‬
‫اﻟﺪﻻﻟﻲ‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐 𝜃𝜃𝜃𝜃 = :‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪𝒖𝒖𝒖𝒖:‬‬ ‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬و‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪𝒖𝒖𝒖𝒖𝒖𝒖!:‬‬
‫! ! !𝒖𝒖𝒖𝒖! ∗ !‬
‫ﻣﺘﺠﮭﯿﻦ𝒖𝒖‬
‫ﻣﺘﺠﮭﯿﻦ !𝒖𝒖𝒖𝒖𝒖𝒖و‬ ‫ﺑﯿﻦ!‬
‫ﺑﯿﻦ!𝒖𝒖𝒖𝒖𝒖𝒖وو!𝒖𝒖𝒖𝒖‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫ﺑﯿﻦاﻟﺰاوﯾﺔ‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬ ‫ﺑﯿﻦ‬
‫ﺗﻘﯿﺲ‬
‫ﺗﻘﯿﺲ‬ ‫اﻟﺰاوﯾﺔ‬
‫ﺗﻘﯿﺲواﻟﺘﻲ‬
‫اﻟﺰاوﯾﺔ‬
‫واﻟﺘﻲ‬ ‫ﺗﻘﯿﺲ‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫واﻟﺘﻲ‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫واﻟﺘﻲ‬ ‫‪𝑐𝑐𝑐𝑐،‬‬
‫𝑐𝑐𝑐𝑐‬

‫ﻟﺤﺴﺎب‬ ‫داﻟﺔ‬
‫الدوال‬
‫داﻟﺔ‬ ‫داﻟﺔ‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫ومن‬ ‫ﺮب‬
‫بينهام‪.‬‬
‫ﻣﺘﺠﮭﯿﻦداﻟﺔ‬
‫داﻟﺔ‬
‫ﻣﺘﺠﮭﯿﻦ داﻟﺔ‬
‫الدوال ﺗﺴﺘﺨﺪم‬
‫اﻟﺘﻲ‬ ‫اﻟﺪوال‬
‫ومن‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫ﺮب‬
‫وﻣﻦ‬
‫بينهام‪.‬‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬ﻗُﻗُ‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬ﻗُﻗُﺮب‬
‫ﻣﺘﺠﮭﯿﻦ‬ ‫ﺮب‬ ‫ﺮب‬
‫ﻟﺤﺴﺎب‬
‫الداليل‬
‫ﻟﺤﺴﺎب‬
‫الداليل‬ ‫ﺮب‬‫ﻟﺤﺴﺎبﻗُﻗُ ﻗُ‬
‫االرتباطﻗُ‬
‫ﻟﺤﺴﺎب‬‫ﺗﺴﺘﺨﺪم‬
‫ﻟﺤﺴﺎب‬
‫ﺗﺴﺘﺨﺪم‬
‫اﻟﺪﻻﻟﻲ‬ ‫ﺗﺴﺘﺨﺪم‬
‫ازداد‬
‫ﺗﺴﺘﺨﺪم‬ ‫اﻟﺘﻲ‬
‫ﺗﺴﺘﺨﺪم‬
‫اﻟﺘﻲ‬
‫اﻻرﺗﺒﺎط‬ ‫الفضاء‬ ‫اﻟﺘﻲ‬
‫اﻟﺪوال‬
‫اﻟﺪوال‬ ‫اﻟﺪوال‬
‫هذااﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫وﻣﻦ‬
‫هذا‬‫اﻟﺪوال‬
‫اﻟﺪوال‬
‫وﻣﻦ‬ ‫وﻣﻦ‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫ﺑﯿﻦيفيف‬
‫بعضها‬
‫وﻣﻦ‬ ‫ﺑﯿﻨﮭﻤﺎ‪.‬وﻣﻦ‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬ ‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫من‬ ‫اﻟﺪﻻﻟﻲ‬‫سياقني‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫اﻟﺪﻻﻟﻲ‬ ‫اﻟﺪﻻﻟﻲ‬
‫اﻟﺪﻻﻟﻲ‬ ‫اﻻرﺗﺒﺎط‬
‫اﻟﺪﻻﻟﻲ‬
‫اﻻرﺗﺒﺎط‬ ‫اﻻرﺗﺒﺎط𝒖𝒖𝒖𝒖‬
‫اﻻرﺗﺒﺎط𝒖𝒖‬
‫لكلمتني𝑐𝑐𝑐𝑐أو‬
‫لكلمتني‬ ‫!!𝒖𝒖𝒖𝒖𝒖𝒖‪. .𝒖𝒖𝒖𝒖𝒖𝒖!! 𝒖𝒖𝒖𝒖𝒖𝒖!!. .‬‬
‫اﻻرﺗﺒﺎط!‬
‫االرتباطھﻮ‬ ‫ازداد‬ ‫الفضاء‬ ‫بعضها‬ ‫من‬ ‫سياقني𝑐𝑐𝑐𝑐‬ ‫أو‬
‫ﺗﺴﺘﺨﺪم ﻟﺤﺴﺎ‬ ‫اﻟﺘﻲ‬ ‫داﻟﺔ‬
‫اﻟﺪوال‬
‫ﻣﺘﺠﮭﯿﻦ‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫وﻣﻦ‬ ‫ﺮب‬
‫ﻟﺤﺴﺎب‬ ‫ﻟﺤﺴﺎب‬
‫اﻟﺪﻻﻟﻲ‬ ‫ﺗﺴﺘﺨﺪم‬ ‫ﺗﺴﺘﺨﺪم‬
‫اﻻرﺗﺒﺎط‬ ‫اﻟﺘﻲ‬ ‫اﻟﺘﻲ‬
‫اﻟﺪوال‬ ‫اﻟﺪوال‬
‫وﻣﻦ‬ ‫وﻣﻦ‬
‫ﺑﯿﻨﮭﻤﺎ‪.‬‬ ‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫اﻟﺪﻻﻟﻲ‬ ‫اﻟﺪﻻﻟﻲ‬
‫اﻻرﺗﺒﺎط‬ ‫اﻻرﺗﺒﺎط!إ𝜃𝜃𝜃𝜃‬
‫داﻟﺔ)اﻟﺠﺪاء‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫اﻟﻨﻘﻄﻲ‬ ‫ﺮب‬
‫اﻟﻀﺮب‬ ‫ﻟﺤﺴﺎب‬ ‫ﺗﺴﺘﺨﺪم𝒖𝒖𝒖𝒖‬
‫! !‬‫‪.‬‬ ‫𝒖𝒖𝒖𝒖‬ ‫اﻟﺘﻲ‬
‫و‬ ‫اﻟﺪوال‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬ ‫وﻣﻦ‬ ‫ﺑﯿﻨﮭﻤﺎ‪.‬‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫اﻟﺰاوﯾﺔ‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫اﻟﺪﻻﻟﻲ‬
‫𝑐𝑐𝑐𝑐‬ ‫𝜃𝜃‬ ‫ھﻲ‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬‫=‬ ‫اﻻرﺗﺒﺎط‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝜃𝜃𝜃𝜃‬
‫=‬ ‫𝑐𝑐𝑐𝑐‬
‫𝜃𝜃𝜃𝜃‬ ‫𝒖𝒖‬ ‫ن‬
‫𝒖𝒖𝒖𝒖‬
‫𝜃𝜃‬
‫∗‬
‫==‬
‫ﺣﯿﺚ‬
‫∗‬ ‫𝒖𝒖𝒖𝒖 ∗ 𝒖𝒖𝒖𝒖 𝒖𝒖𝒖𝒖‬
‫ﻣﺘﺠﮭﯿﻦ !!𝒖𝒖𝒖𝒖𝒖𝒖وو!‬ ‫بني‬
‫بنيﻣﺘﺠﮭﯿﻦ‬
‫ﺑﯿﻦ‬ ‫الزاوية‬
‫الزاويةﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬ ‫تقيس‬
‫تقيساﻟﺰاوﯾﺔ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫والتي‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫والتي‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬ﺗﻘﯿﺲ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﺗﻘﯿﺲ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫𝒖𝒖𝒖𝒖𝒖𝒖‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫واﻟﺘﻲ‬
‫𝒖𝒖‬
‫واﻟﺘﻲ‬‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫الشهرية‪،‬‬
‫الشهرية‪،‬وو!!!𝒖𝒖𝒖𝒖‬
‫𝒖𝒖وو‬
‫𝒖𝒖‬ ‫𝒖𝒖𝒖𝒖‬
‫𝒖𝒖𝒖𝒖‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫اﻟﺸﮭﯿﺮة‪،‬‬‫𝒖𝒖‬
‫𝒖𝒖𝒖𝒖‬
‫!‬ ‫𝒖𝒖و‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫𝒖𝒖𝒖𝒖و‬
‫ﻣﺘﺠﮭﯿﻦو!!!‬
‫𝒖𝒖𝒖𝒖‬
‫!!‬ ‫𝒖𝒖و‬
‫𝒖𝒖𝒖𝒖!‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫ﻣﺘﺠﮭﯿﻦ!‬ ‫ﻣﺘﺠﮭﯿﻦ‬
‫ﻣﺘﺠﮭﯿﻦ!‬ ‫ﺑﯿﻦ‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫ﺑﯿﻦ‬
‫ﻣﺘﺠﮭﯿﻦ‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫!!‬ ‫ﺑﯿﻦ‬‫ﺑﯿﻦ‬ ‫دالة‬
‫ﺑﯿﻦ‬
‫دالة‬
‫اﻟﺰاوﯾﺔ‬
‫ﺑﯿﻦ‬‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫ﺑﯿﻦ‬ ‫متجهني‬
‫اﻟﺰاوﯾﺔ‬
‫متجهني‬
‫ﺗﻘﯿﺲ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬ ‫ﺗﻘﯿﺲ‬
‫اﻟﺰاوﯾﺔ‬
‫ﺗﻘﯿﺲ‬ ‫رب‬
‫ﺗﻘﯿﺲ‬
‫واﻟﺘﻲﺗﻘﯿﺲ‬ ‫رب‬
‫ﺗﻘﯿﺲ‬
‫واﻟﺘﻲ‬‫ﺗﻘﯿﺲ‬
‫ﺗﻘﯿﺲ‬
‫واﻟﺘﻲ‬
‫واﻟﺘﻲ‬ ‫اﻟﺸﮭﯿﺮة‪ُ ،‬ق‬
‫واﻟﺘﻲ ُق‬ ‫حلساب‬
‫واﻟﺘﻲ‬
‫حلساب‬
‫واﻟﺘﻲ‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫واﻟﺘﻲ‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫اﻟﺸﮭﯿﺮة‪،‬‬ ‫اﻟﺸﮭﯿﺮة‪،‬‬
‫اﻟﺸﮭﯿﺮة‪،‬‬ ‫تستخدم‬
‫تستخدم‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫اﻟﺸﮭﯿﺮة‪،‬‬
‫!‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫التي‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐!‬
‫𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫!!𝒖𝒖 ∗ !!𝑐𝑐𝑐𝑐!𝒖𝒖!𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝒖𝒖𝑐𝑐𝑐𝑐التي‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫أﻧﮫ ﻛﻠﻤﺎ ﻗﻠﱠﺖ اﻟﺰاوﯾﺔ ﺑﯿﻦ‬
‫!‬
‫! !!‬ ‫!!‬
‫ُﺬﻛﺮ‬ ‫)اﻟﺠﺪاء‪ .‬ﯾ‬ ‫𝒖𝒖𝒖𝒖‬ ‫اﻟﻤﺘﺠﮫ !‬ ‫طﻮل‬ ‫ھﻮھﻮ‬ ‫𝒖𝒖𝒖𝒖‬
‫كالتايل‪:‬‬ ‫ھﻮ𝒖𝒖𝒖𝒖و‬‫ﻟﮭﻤﺎ‪،‬‬ ‫اﻟﻘﯿﺎﺳﻲ(‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪𝒖𝒖،‬ووو‬
‫متجهني‬
‫!!𝒖𝒖𝒖𝒖𝒖𝒖‪𝒖𝒖𝒖𝒖𝒖𝒖!!. .‬‬
‫)اﻟﺠﺪاء‬ ‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻨﻘﻄﻲ‬ ‫)اﻟﺠﺪاء‬
‫)اﻟﺠﺪاء‬
‫𝒖𝒖‬
‫𝒖𝒖‬ ‫𝒖𝒖𝒖𝒖‬
‫𝒖𝒖𝒖𝒖‬
‫!‬ ‫!‬
‫!‬ ‫‪.‬‬‫‪.‬‬
‫اﻟﻀﺮب‬
‫اﻟﻀﺮب‬
‫‪.‬‬‫𝒖𝒖‬
‫‪.‬‬
‫𝒖𝒖‬‫𝒖𝒖𝒖𝒖‬
‫𝒖𝒖‬
‫𝒖𝒖𝒖𝒖‬
‫!‬ ‫!‬
‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻨﻘﻄﻲ‬
‫𝒖𝒖𝒖𝒖‬
‫𝒖𝒖‬
‫!‬‫!‬ ‫𝒖𝒖𝒖𝒖‬
‫!‬‫‪.‬‬‫!‬
‫‪.‬‬
‫𝒖𝒖‬
‫!‬‫‪.‬‬ ‫‪.‬‬‫𝒖𝒖‬
‫!‬
‫كالتايل‪:‬‬
‫𝒖𝒖𝒖𝒖‬‫ھﻮ‬
‫𝒖𝒖𝒖𝒖‬
‫!‬ ‫!‬ ‫!‬
‫اﻟﻀﺮب‬
‫اﻟﻀﺮب‬ ‫𝒖𝒖‪! !. .‬‬
‫𝒖𝒖𝒖𝒖𝒖𝒖‬
‫!‬ ‫!‬ ‫و‬
‫ھﻮ!‬ ‫!‬ ‫متجهني‪!.‬‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪𝒖𝒖𝒖𝒖،‬‬
‫ﺑﯿﻦ وو !!𝒖𝒖𝒖𝒖‬
‫𝒖𝒖‪.‬‬ ‫ﺑﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫ﺑﯿﻦاﻟﺰاوﯾﺔ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫اﻟﺰاوﯾﺔ‬ ‫ﺑﯿﻦ‬
‫ﻟﺰاوﯾﺔھﻲ‬
‫ھﻲ‬ ‫ﺰاوﯾﺔ‬
‫نن 𝜃𝜃𝜃𝜃𝜃𝜃‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐‬ ‫=𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫=𝑐𝑐𝑐𝑐‬
‫=‬ ‫==𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝑐𝑐𝑐𝑐‬ ‫!‬ ‫!‬ ‫!‬ ‫!‬
‫== 𝜃𝜃𝜃𝜃𝜃𝜃 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫=‬ ‫==‬
‫!‬
‫اﻟﺰاوﯾﺔ ﱠ‪.‬‬
‫𝒖𝒖ﻗﻠﱠ∗‪1‬‬ ‫ﻣﻦ‬
‫!‬
‫!!𝒖𝒖𝒖𝒖𝒖𝒖 ∗∗ !!𝒖𝒖𝒖𝒖𝒖𝒖‬
‫𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐‬ ‫ﺑﯿﻦ‬ ‫ﺑﯿﻦ‬ ‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬ ‫𝒖𝒖‬ ‫𝒖𝒖𝒖𝒖‬
‫ﺑﯿﻦ𝒖𝒖𝒖𝒖‬
‫ﺑﯿﻦ𝒖𝒖‬‫ﺖ!‬
‫!‬ ‫∗ﻗﻠﺖ!‬
‫!‬ ‫𝒖𝒖𝒖𝒖∗‬
‫اﻟﺰاوﯾﺔ∗‬
‫ﻛﻠﻤﺎ‬
‫𝒖𝒖!‬
‫ﻛﻠﻤﺎ‬
‫𝒖𝒖‬
‫𝒖𝒖‬ ‫𝒖𝒖𝒖𝒖‬
‫!!‬ ‫اﻟﺪاﻟﺔ∗!∗‬
‫𝒖𝒖𝒖𝒖!𝒖𝒖𝒖𝒖‬
‫!!‬
‫𝒖𝒖𝒖𝒖ﱠﺖ‬
‫أﻧﮫ‬
‫𝒖𝒖∗‬
‫أﻧﮫ‬
‫ﺖ∗‬ ‫ُﺬﻛﺮ ﱠ‬
‫ﻗﻠ!‬
‫𝒖𝒖ﻗﻠ‬ ‫ﻗﯿﻤﺔ‬
‫ُﺬﻛﺮ!𝒖𝒖𝒖𝒖‬
‫ﻛﻠﻤﺎ!‬
‫ﻛﻠﻤﺎ!‬ ‫𝒖𝒖‪ .‬ﯾ ﯾ‬ ‫اﻗﺘﺮﺑﺖ‬
‫أﻧﮫ‪.‬‬
‫أﻧﮫ‬
‫𝒖𝒖𝒖𝒖‬ ‫ُﺬﻛﺮ‬
‫ُﺬﻛﺮ ! !‬
‫اﻟﻤﺘﺠﮫ‬‫اﻟﻤﺘﺠﮭﯿﻦ‪ .‬ﯾ ﯾ‬
‫اﻟﻤﺘﺠﮫ‬ ‫𝒖𝒖𝒖𝒖‪.‬‬
‫𝒖𝒖‬ ‫طﻮل‬
‫طﻮل‬ ‫اﻟﻤﺘﺠﮫ‬
‫طﻮل ھﻮ‬
‫اﻟﻤﺘﺠﮫ ! !‬
‫ھﻮ‬ ‫طﻮل𝒖𝒖‬ ‫ﻟﮭﻤﺎ‪،‬ھﻮو‬
‫ھﻮو ! !𝒖𝒖𝒖𝒖‬ ‫ﻟﮭﻤﺎ‪،‬‬ ‫(‬
‫ﻲ(! !𝒖𝒖𝒖𝒖𝒖𝒖‬
‫!!‬ ‫!!‬
‫ﻣﻦ‪.1‬‬ ‫ﻣﻦ‬ ‫اﻟﺪاﻟﺔ‬
‫ﻗﯿﻤﺔ‪.1.‬‬
‫ﻗﯿﻤﺔ‪1‬‬
‫اﻗﺘﺮﺑﺖﻣﻦ‬
‫اﻗﺘﺮﺑﺖ‬
‫ﻗﯿﻤﺔاﻟﺪاﻟﺔ‬
‫ﯿﻤﺔ‬
‫ﻦﯿﻦ‬
‫اﻟﻀ‬
‫ھﻮ اﻟ‬ ‫(اجلداء‬
‫)اﻟﺠﺪاء‬
‫(اجلداء!!𝒖𝒖𝒖𝒖𝒖𝒖‪ 𝒖𝒖𝒖𝒖𝒖𝒖!!. .‬ھﻮ‬
‫)اﻟﺠﺪاء‬
‫)اﻟﺠﺪاءو‬
‫)اﻟﺠﺪاء‬ ‫النقطي‬
‫)اﻟﺠﺪاء‬
‫اﻟﻨﻘﻄﻲ‬
‫النقطي‬
‫)اﻟﺠﺪاء‬
‫)اﻟﺠﺪاء‬
‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪ ،‬و‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫)اﻟﺠﺪاء‬
‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻨﻘﻄﻲ‬ ‫ﺑﯿﻦ‬ ‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻨﻘﻄﻲ‬
‫ﺑﯿﻦ‬ ‫الرضب‬
‫اﻟﻀﺮب‬
‫الرضب‬
‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻀﺮب‬
‫اﻟﻨﻘﻄﻲ‬
‫اﻟﻀﺮب‬ ‫اﻟﻀﺮب‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﻀﺮب‬ ‫اﻟﻀﺮب‬‫اﻟﻀﺮب‬ ‫هو‬
‫ھﻮ‬
‫ھﻮ‬ ‫هو‬
‫ھﻮ‬
‫اﻟﻀﺮب‬
‫ھﻮ‬ ‫𝒖𝒖𝒖𝒖𝒖𝒖‬
‫ھﻲ‬
‫ھﻲ‬‫𝒖𝒖‬‫ھﻮ!!𝒖𝒖𝒖𝒖‬‫ھﻮ‬ ‫𝒖𝒖‪..‬‬
‫ھﻮ‪..‬‬
‫𝜃𝜃𝜃𝜃!!𝜃𝜃‬
‫!!‬
‫ھﻮ‬ ‫𝒖𝒖𝒖𝒖إ!!!ن‬
‫𝒖𝒖𝒖𝒖ن𝒖𝒖‬
‫𝒖𝒖‬
‫𝒖𝒖𝒖𝒖‬ ‫𝒖𝒖‬
‫!‬
‫!‬
‫!‬
‫ﺣﯿﺚ!و‪.‬و‬
‫𝒖𝒖𝒖𝒖!إ‬
‫ﺣﯿﺚ‬
‫!‬ ‫اﻟﻤﺘﺠﮭﯿﻦ‪.،‬و‪.‬‬
‫𝒖𝒖ووو‬
‫!‬ ‫𝒖𝒖𝒖𝒖‬
‫𝒖𝒖‪.‬‬ ‫املتجهني‪،‬‬
‫املتجهني‪،‬‬
‫و!!‬
‫𝒖𝒖𝒖𝒖‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫!‬ ‫بني‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬وو!‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬ ‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬و‬
‫ﺑﯿﻦ‬
‫بني‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫ﺑﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‪،‬‬
‫ﺑﯿﻦ‬ ‫الزاوية‬
‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬
‫الزاوية‬
‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔﺑﯿﻦ‬‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬ ‫هي‬‫هي‬
‫اﻟﺰاوﯾﺔ‬
‫ھﻲ‬
‫اﻟﺰاوﯾﺔﺑﯿﻦ‬
‫ھﻲ‬ ‫ھﻲ𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃𝜃ھﻲ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬
‫ھﻲ‬ ‫إننن‬
‫ھﻲ‬
‫إنن‬
‫ھﻲ‬‫ن‬ ‫ﺣﯿﺚإإننإ‪1‬ن‪.‬ن𝜃𝜃𝜃𝜃𝜃𝜃‬
‫حيث‬
‫ﺣﯿﺚ𝜃𝜃إإإإ‬
‫ھﻲ‬ ‫ﺣﯿﺚ𝜃𝜃𝜃𝜃‬
‫حيث‬
‫ﺣﯿﺚ‬
‫ﺣﯿﺚ‬
‫اﻟﺪاﻟﺔ‬
‫ﺣﯿﺚإ‬
‫ﺣﯿﺚ‬
‫ﺣﯿﺚ‬ ‫ﻣﻦ‬ ‫اﻟﺪاﻟﺔ‬

‫ُﺬﻛﺮ أﻧﮫ‬
‫أﻧﮫ‬ ‫𝒖𝒖‪ .‬ﯾ ﯾُﺬﻛﺮ‬ ‫املتجهني‬
‫املتجهني! !𝒖𝒖𝒖𝒖‪.‬‬
‫ﺑﯿﻦ‬
‫ﺑﯿﻦ‬
‫اﻟﻤﺘﺠﮫ‬
‫ﺑﯿﻦ‬
‫ﺑﯿﻦ‬ ‫ﺑﯿﻦ‬
‫ﺑﯿﻦ‬ ‫بني‬
‫بني‬
‫اﻟﺰاوﯾﺔ‬
‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﻤﺘﺠﮫ‬ ‫طﻮل‬ ‫الزاوية‬
‫الزاوية‬
‫ﺖ‬
‫اﻟﺰاوﯾﺔ‬
‫طﻮل‬
‫ﺑﯿﻦ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬ ‫ﺖ‬
‫اﻟﺰاوﯾﺔ‬
‫ﺖ‬‫ھﻮﺖ‬
‫ﺖ ﱠ‬
‫ھﻮ ﱠﻠﱠ‬
‫اﻟﺰاوﯾﺔ‬
‫اﻟﺰاوﯾﺔ‬ ‫ﺖ‬
‫ﻛﻠﻤﺎ ﻗﻗﻠﱠﻠﻗﻗﻠ‬
‫ﻛﻠﻤﺎ‬
‫ﺖ‬ ‫أﻧﮫﻗﻠ!ﱠﻠﱠ!ﻗ‬
‫ت‬
‫ﺖﻠﱠ‬
‫ت‬
‫𝒖𝒖𝒖𝒖‬
‫ﻛﻠﻤﺎ‬
‫𝒖𝒖‬
‫ﻛﻠﻤﺎ‬ ‫أﻧﮫ‬ ‫ﻛﻠﻤﺎ َّقلﻗ‬
‫ﻛﻠﻤﺎﻠﱠَّلﻗ‬
‫أﻧﮫ‬
‫أﻧﮫ‬ ‫ﻛﻠﻤﺎقو‬
‫كلام‬
‫كلامو‬
‫ُﺬﻛﺮ‬ ‫أنهﯾ‬
‫أﻧﮫأﻧﮫ‬
‫ُﺬﻛﺮ‬
‫ﻛﻠﻤﺎ‬
‫ﻟﮭﻤﺎ‪،‬‬
‫ﻟﮭﻤﺎ‪،‬‬
‫ُﺬﻛﺮ‬
‫ُﺬﻛﺮ‬ ‫أﻧﮫﯾ‬
‫أﻧﮫ‬ ‫أنهﯾ‬
‫ُﺬﻛﺮ ﯾ‬
‫𝒖𝒖‪..‬‬ ‫ذكر‬
‫ذكر‬
‫ُﺬﻛﺮ‪.‬‬
‫𝒖𝒖‪.‬‬‫𝒖𝒖𝒖𝒖‬ ‫اﻟﻤﺘﺠﮫﯾ ﯾ!! !‬
‫ُﺬﻛﺮ‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫ُﺬﻛﺮ‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫𝒖𝒖𝒖𝒖‬
‫! !!‬ ‫اﻟﻤﺘﺠﮫ‬ ‫𝒖𝒖يﯾ‬
‫اﻟﻤﺘﺠﮫ‪ُ .‬يﯾ‬
‫اﻟﻤﺘﺠﮫ‬ ‫𝒖𝒖‪.‬‬
‫𝒖𝒖𝒖𝒖‪ُ ...‬‬ ‫املتجه‬
‫املتجه‬
‫اﻟﻤﺘﺠﮫ !‬
‫طﻮل‬
‫اﻟﻤﺘﺠﮫ!!𝒖𝒖𝒖𝒖!‪.‬‬
‫اﻟﻤﺘﺠﮫ‬
‫طﻮلطﻮل‬
‫طﻮل‬
‫اﻟﻤﺘﺠﮫ‬
‫طﻮل‬ ‫ھﻮ‬‫طول‬
‫طول‬
‫طﻮل‬
‫ھﻮ‬
‫طﻮل‬
‫طﻮل‬
‫ھﻮ‬
‫ھﻮ‬ ‫هو𝒖𝒖𝒖𝒖‬
‫هو‬
‫ھﻮ𝒖𝒖‬
‫𝒖𝒖‬ ‫ھﻮ!‬
‫𝒖𝒖𝒖𝒖‬ ‫وھﻮ!!‬
‫ھﻮ‬
‫𝑚𝑚𝐷𝐷𝐷𝐷!!‬
‫! !‬
‫𝒖𝒖𝒖𝒖وو‬
‫𝒖𝒖و‬ ‫ﻟﮭﻤﺎ‪!،‬‬
‫𝒖𝒖‬‫𝒖𝒖𝒖𝒖‬ ‫هلام‪،‬وووو‬
‫و! !‬
‫ﻟﮭﻤﺎ‪،‬‬
‫ﻟﮭﻤﺎ‪!،‬‬
‫ﻟﮭﻤﺎ‪،‬‬ ‫هلام‪،‬‬
‫ﻟﮭﻤﺎ‪،‬‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫ﻟﮭﻤﺎ‪،‬و‬
‫!𝑚𝑚𝐷𝐷𝐷𝐷‬
‫ﻟﮭﻤﺎ‪،‬‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫ﻟﮭﻤﺎ‪،‬‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫اﻟﻘﯿﺎﺳﻲ(‬ ‫القيايس)‬
‫القيايس)‬ ‫اﻟﻘﯿﺎﺳﻲ(‬
‫اﻟﻘﯿﺎﺳﻲ(‬‫اﻟﻘﯿﺎﺳﻲ(‬
‫اﻟﻘﯿﺎﺳﻲ(‬
‫ﻣﻦ‪.1.1‬‬
‫اﻟﺪاﻟﺔﻣﻦ‬
‫ﻗﯿﻤﺔاﻟﺪاﻟﺔ‬
‫اﻗﺘﺮﺑﺖﻗﯿﻤﺔ‬ ‫ﻣﻦ‪ ..1.1.11‬اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦاﻗﺘﺮﺑﺖ‬ ‫ﻣﻦ‬ ‫اﻟﺪاﻟﺔ‪..‬‬
‫اﻟﺪاﻟﺔ‪1‬‬
‫ﻣﻦ‪1‬‬
‫ﻣﻦ‪1.‬‬
‫اﻟﺪاﻟﺔ‪.1‬ﻣﻦ‬ ‫ﻣﻦ‬
‫ﻣﻦ‬ ‫‪.١‬‬
‫‪.1‬‬
‫ﻗﯿﻤﺔ‬ ‫من‬
‫من‬
‫اﻟﺪاﻟﺔ‬
‫ﻗﯿﻤﺔ‬
‫اﻟﺪاﻟﺔ‬
‫اﻟﺪاﻟﺔ‬
‫اﻟﺪاﻟﺔ‬
‫ﻗﯿﻤﺔ‬ ‫الدالة‬
‫الدالة‬
‫ﻗﯿﻤﺔ‬
‫اﻗﺘﺮﺑﺖ‬
‫ﻗﯿﻤﺔ‬
‫ﻗﯿﻤﺔ‬
‫اﻗﺘﺮﺑﺖ‬
‫ﻗﯿﻤﺔ‬
‫اﻗﺘﺮﺑﺖ‬ ‫اﻟﻤﺘﺠﮭﯿﻦقيمة‬
‫قيمة‬
‫اﻗﺘﺮﺑﺖ‬
‫اﻗﺘﺮﺑﺖ‬
‫اﻗﺘﺮﺑﺖ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻗﺘﺮﺑﺖ‬ ‫اقرتبت‬
‫اقرتبت‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫ﻣﻦ‬ ‫اﻟﺪاﻟﺔ‬ ‫ﻗﯿﻤﺔ‬ ‫اﻗﺘﺮﺑﺖ‬ ‫اﻟﻤﺘﺠﮭﯿﻦ‬
‫ةرﺎﯾﺳ‬ ‫ةرﺎﯾﺳ‬
‫ﺔﺑرﻋ‬ ‫ﺔﺑرﻋ‬
‫!𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝐷𝐷𝐷𝐷 !!𝑚𝑚𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷‬
‫!!𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫!‬ ‫!‬ ‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬

‫ةرﺎﯾﺳ‬ ‫ﺔﺑرﻋ‬ ‫ةرﺎﯾﺳ ةرﺎﯾﺳ‬


‫ةرﺎﯾﺳ‬
‫ﺳﯾﺎرة‬ ‫ﺔﺑرﻋ ﻋرﺑﺔ‬
‫ﺔﺑرﻋةرﺎﯾﺳ‬
‫ﺔﺑرﻋ‬ ‫ﺔﺑرﻋ‬ ‫ﺳﯾﺎرةةرﺋﺎط ﺳﯾﺎرة‬
‫ﻋرﺑﺔ ةرﺋﺎط ﻋرﺑﺔ‬
‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷 !!!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫!!‬
‫رﺣﺑ‬ ‫رﺣﺑ‬ ‫!𝑚𝑚𝐷𝐷𝐷𝐷‬
‫ءﺎﻣ‬ ‫ءﺎﻣ‬

‫ﻋرﺑﺔ ةرﺋﺎط ﺳﯾﺎرة‬ ‫ﺳﯾﺎرة ﺳﯾﺎرة‬


‫ﺳﯾﺎرة‬ ‫ةرﺋﺎط‬
‫ةرﺋﺎط‬ ‫ﻋرﺑﺔةرﺋﺎط‬
‫ةرﺋﺎط‬
‫ﻋرﺑﺔﺳﯾﺎرة‬
‫ﻋرﺑﺔ‬ ‫ﻋرﺑﺔ‬
‫طﺎﺋرة‬ ‫طﺎﺋرة‬
‫ر‬ ‫رﺣﺑ رﺣﺑ‬
‫رﺣﺑ‬ ‫رﺣﺑ‬
‫!𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫طﺎﺋرة‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫!‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝐷𝐷𝐷𝐷‬
‫! !‬
‫ﺑﺣر‬ ‫!! ﺑﺣر‬ ‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫ءﺎﻣءﺎﻣﺑﺣر ءﺎﻣ‬
‫ءﺎﻣ‬
‫ﻣﺎء‬ ‫ﻣﺎء‬ ‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫ﻣﺎء‬ ‫لﺑﺟ‬ ‫لﺑﺟ‬
‫طﺎﺋرة‬ ‫طﺎﺋرة طﺎﺋرة‬
‫طﺎﺋرة‬ ‫طﺎﺋرة‬
‫ﺑﺣ‬ ‫ﺑﺣر ﺑﺣر‬
‫ﺑﺣر‬ ‫ﺑﺣر‬
‫!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷 !!!𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫!!‬
‫ﻣﺎء‬
‫ﻣﺎء‬ ‫ﻣﺎءﻣﺎء‬
‫لﺑﺟ‬ ‫لﺑﺟ‬
‫لﺑﺟ‬ ‫لﺑﺟ‬
‫لﺑﺟ‬ ‫!𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫𝐷𝐷𝐷𝐷‬
‫ﺟﺑل‬ ‫ﺟﺑل‬ ‫ﻟﺨﺎﺗﻤﺔ‬
‫اﻟﺘﺮاﻛﯿﺐ ﺟﺑل‬
‫اﻟﻠﻐﻮﯾﺔ‪.‬‬ ‫تﺎﻤﻠﻜﻟااﻟﻠﻐﻮﯾﺔ‪.‬‬
‫ﻣﻦ‬‫اﻟﺘﺮاﻛﯿﺐ‬
‫ﻻﻣﻨﺘ ٍﮫ‬ ‫ﻋﺪد‬
‫ﻣﻦ‬ ‫ﻢﯿھﺎﻔﻤﻟاُج ٍﮫ‬
‫ﻻﻣﻨﺘ‬
‫ﻲﻟﻻﺪﻟاإﻧﺘﺎ‬
‫ﺧﻼﻟﮫ‬
‫ﻋﺪد‬ ‫ﻣﻦ ُج‬
‫ﯾﻤﻜﻦ إﻧﺘﺎ‬ ‫ﯾﻤﻜﻦ ُﻣﻌﻘﱠ‬
‫‪.‬ﻦﻣﺎﻜﻟاﺧﻼﻟﮫ‬
‫ﻣﻦﺪ‬ ‫برﺎﻘﺗﻧﻈﺎم‬ ‫م ُﻣﻌﻘﱠ‬
‫ﺒﺸﺮﯾﺔﺪ‬
‫ﺎﮭﻟدﻲﺘﻟا تﺎﻤﻠﻜﻟا د‬ ‫ﻢﯿھﺎﻔﻤﻟا ﺲﻔﻧ‬
‫ﻲﻓﺎﮭﻟ ﻲﺘﻟا‬
‫ءﺎﻀﻔﻟاﺲﻔﻧ‬ ‫ءﺎﻀﻔﻟا ﻲﻓ‬
‫ﻲﻟﻻﺪﻟا‪.‬ﻦﻣﺎﻜﻟا‬
‫ﺎﻨﺿﺮﺘﻓا ﺎﻨھ‬ ‫ﺎﻨﺿﺮﺘﻓاﺎﻌﺑأﺎﻨھنأ‬ ‫نأ‬
‫ا ‪:3‬‬
‫!𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫وﻣﺤﺎوﻟﺔ‬ ‫ﺟﺑل‪،‬‬
‫اﻟﺒﺸﺮي‬
‫اﻹدراك وﻣﺤﺎوﻟﺔ‬
‫اﻟﺒﺸﺮي‪،‬‬ ‫اﻹدراكﻓﮭﻢ‬
‫اﻟﺨﺎﺗﻤﺔ إﻟﻰ !!‬
‫اﻻﺻﻄﻨﺎﻋﻲ‬
‫إﻟﻰ ﻓﮭﻢ‬ ‫اﻻﺻﻄﻨﺎﻋﻲ‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷‪.‬ﺎ‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷ﻓﻲ اﻟﺬﻛﺎء‬
‫اﻟﺬﻛﺎء‬
‫اﻟﺒﺎﺣﺜﻮن‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷 !‬
‫ءﺎﻀﻔﻟا‬
‫ف𝐷𝐷𝐷𝐷ﻓﻲ‬
‫𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫ﺔﺛﻼﺛ‬ ‫ﻂﻘﻓ‪.‬ﺎ!‬
‫𝑚𝑚𝐷𝐷𝐷𝐷‬ ‫ءﺎﻀﻔﻟا‬
‫ﻞﮭﺴﯿﻟ !‬
‫ﺔﺛﻼﺛ‬
‫ﺎﮭﻠﯿﺜﻤﺗ‬
‫ﯾﺮﺼﺑ ﻂﻘﻓ‬
‫ﯾﺮﺼﺑ ﺎﮭﻠﯿﺜﻤﺗ ﻞﮭﺴﯿﻟ‬
‫ﺟﺑل‬ ‫ﺟﺑل‪ 4‬ﺟﺑل‬
‫ﺟﺑل‬
‫اﻟﺨﺎﺗﻤﺔ‬ ‫𝑚𝑚𝐷𝐷𝐷𝐷‬‫اﻟﺨﺎﺗﻤﺔ‬
‫اﻟﺨﺎﺗﻤﺔ‬ ‫‪4 44‬‬
‫‪4‬‬
‫اﻟﺨﺎﺗﻤﺔ‬ ‫!‬

‫ﻢﯿھﺎﻔﻤﻟاﮫ‬
‫ﻋﺪد ﻻﻣﻨﺘ‬ ‫اﻟﻠﻐﻮﯾﺔ‪.‬إﻧﺘﺎ ُج‬
‫ﺧﻼﻟﮫ‬ ‫اﻟﻠﻐﻮﯾﺔ‪.‬‬
‫اﻟﺘﺮاﻛﯿﺐ‪.‬‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫اﻟﺘﺮاﻛﯿﺐ‬
‫تﺎﻤﻠﻜﻟا دﻣﻦ‬
‫ﯾﻤﻜﻦ‬ ‫ﻣﻦ‬
‫اﻟﺘﺮاﻛﯿﺐ‬
‫ﻲﺘﻟاﺪ‬ ‫ﻣﻦ‬
‫ﻢﯿھﺎﻔﻤﻟاﺎﮭﻟ ٍﮫ ٍﮫُﻣﻌﻘﱠ‬
‫ﻻﻣﻨﺘ‬ ‫ﻣﻦ‬
‫ﻧﻈﺎم‬ ‫ﻋﺪد ٍﮫ‬
‫ﻻﻣﻨﺘ‬
‫ﻻﻣﻨﺘ ٍﮫ‬
‫اﻟﺒﺸﺮﯾﺔ‬ ‫ﻋﺪد ُ ُج‬
‫إﻧﺘﺎ‬
‫ﻋﺪد‬ ‫ج‬
‫ج ُ‬
‫ﺧﻼﻟﮫ‬
‫اﻟﻠﻐﺔ‬ ‫إﻧﺘﺎ‬
‫إﻧﺘﺎ ُ‬‫ﺧﻼﻟﮫ‬
‫ﻣﻦ‬ ‫ﺧﻼﻟﮫ‬‫ﯾﻤﻜﻦ‬‫ﯾﻤﻜﻦﻣﻦﻣﻦ‬ ‫ﯾﻤﻜﻦﻘﱠﻘﱠﺪ‬
‫ﺎﻨھﺪ‬ ‫ﺎﻨﺿﺮﺘﻓاﻌﻌ‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷ﻘﱠﺪ‬
‫ﻧﻈﺎمنأ ُﻣُﻣ‬ ‫اﻟﺒﺸﺮﯾﺔﻣنأﻌ ُﻣﻘﱠﻌﺪ‬
‫ﻧﻈﺎم‬ ‫ﻧﻈﺎم‬
‫اﻟﺒﺸﺮﯾﺔ ُ‬ ‫اﻟﺒﺸﺮﯾﺔ‬
‫اﻟﻠﻐﺔ‬
‫اﻟﺒﺸﺮﯾﺔ‬ ‫اﻟﻠﻐﺔ‬
‫اﻟﻠﻐﺔ‬
‫ﻲﻟﻻﺪﻟا‪.‬ءﺎﻀﻔﻟا ﻲﻓ‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫اﻟﺘﺮاﻛﯿﺐ‬
‫تﺎﻤﻠﻜﻟا دد‬
‫‪.‬ﻦﻣﺎﻜﻟا‬
‫تﺎﻤﻠﻜﻟا‬ ‫ﻲﺘﻟا‬
‫ﺎﻨھد‬
‫ﻲﺘﻟا‬ ‫ﻣﻦﺎﮭﻟ‬
‫ﺎﮭﻟ‬
‫تﺎﻤﻠﻜﻟا‬
‫ﺎﻨﺿﺮﺘﻓا‬‫ﺲﻔﻧ‬
‫ﺲﻔﻧ‬‫نأﻲﺘﻟا‬ ‫ﻻﻣﻨﺘ‬‫ﺲﻔﻧ‬
‫ﺎﮭﻟ‬ ‫ﺲﻔﻧ‬
‫ﺎﻌﺑأ‬
‫ﻢﯿھﺎﻔﻤﻟا‬ ‫ﻋﺪد‬
‫ﻢﯿھﺎﻔﻤﻟا‬
‫ﻲﻓ‬
‫برﺎﻘﺗ‬ ‫ج‪:‬‬
‫ءﺎﻀﻔﻟا‬
‫ﻢﯿھﺎﻔﻤﻟاﻲﻓ‬
‫ءﺎﻀﻔﻟا‬ ‫ﻲﻓ‪3‬‬ ‫إﻧﺘﺎ‬
‫ﻞﻜﺸﻟا‬ ‫ﺧﻼﻟﮫ‬
‫ءﺎﻀﻔﻟا‬
‫ﻲﻟﻻﺪﻟا‬
‫ﻲﻓ‬ ‫ءﺎﻀﻔﻟا‬
‫ﻲﻟﻻﺪﻟا‬ ‫ﻣﻦ‬
‫ﻲﻟﻻﺪﻟا‬
‫‪.‬ﻦﻣﺎﻜﻟا‬
‫ﻲﻟﻻﺪﻟا‬
‫‪.‬ﻦﻣﺎﻜﻟا‬
‫اﻓﺘﺮﺿﻨﺎ أن أﺑﻌﺎد‬
‫ﯾﻤﻜﻦ‬
‫‪.‬ﻦﻣﺎﻜﻟا‬
‫ﺎﻨھ‬ ‫ﺎﻨﺿﺮﺘﻓا‬
‫‪.‬ﻦﻣﺎﻜﻟا‬
‫ﺎﻨھ‬ ‫ﺎﻨﺿﺮﺘﻓا‬
‫اﻟﻜﺎﻣﻦ‪.‬أنھﻨﺎأﺑﻌﺎد‬
‫اﻓﺘﺮﺿﻨﺎ‬ ‫ﺎﻨھ‬
‫اﻟﺪﻻﻟﻲ‬ ‫نأ‬ ‫ﻧﻈﺎم‬
‫برﺎﻘﺗ ﺎﻌﺑأ‬
‫ﺎﻨﺿﺮﺘﻓا‬
‫ﺎﻌﺑأھﻨﺎ‬ ‫اﻟﻜﺎﻣﻦ‪.‬‬‫برﺎﻘﺗ‬
‫اﻟﻔﻀﺎء‬ ‫ﺎﻌﺑأنأ‬
‫ﺎﻌﺑأ !‬
‫اﻟﺪﻻﻟﻲ‬‫ﻓﻲ‬
‫برﺎﻘﺗ‬
‫‪::44‬‬
‫‪3344‬‬
‫ﻞﻜﺸﻟا‬‫اﻟﻠﻐﺔ‬
‫برﺎﻘﺗ‬
‫ﻞﻜﺸﻟا‬ ‫ﻞﻜﺸﻟا‪:3:‬‬
‫اﻟﻤﻔﺎھﯿﻢ‬
‫اﻟﻔﻀﺎء‬‫ﻧﻔﺲ‪3‬‬
‫ﻞﻜﺸﻟا‬
‫ﻓﻲ‬‫‪44‬‬
‫‪44‬‬
‫ﻟﮭﺎ‬
‫اﻟﻤﻔﺎھﯿﻢ‬
‫اﻟﻜﻠﻤﺎت اﻟﺘﻲ‬
‫ﺗﻘﺎربﻟﮭﺎ ﻧﻔﺲ‬
‫ﻜﻠﻤﺎت اﻟﺘﻲ‬
‫ﻞ ‪:3‬‬
‫‪.‬ﺎ‬‫ءﺎﻀﻔﻟا‬ ‫ﺔﺛﻼﺛ‬‫وﻣﺤﺎوﻟﺔ‬
‫ﻂﻘﻓ‬ ‫وﻣﺤﺎوﻟﺔ‬
‫ﻞﮭﺴﯿﻟ‬ ‫‪،‬‬ ‫اﻟﺒﺸﺮي‬
‫ﺎﮭﻠﯿﺜﻤﺗ‬ ‫‪،‬‬ ‫اﻟﺒﺸﺮي‬
‫ﯾﺮﺼﺑ‬ ‫اﻹدراك‬ ‫‪.‬ﺎ‬‫ءﺎﻀﻔﻟا‬
‫اﻹدراك‬ ‫ﻓﮭﻢ‬ ‫إﻟﻰ‪.‬ﺎ‬
‫ءﺎﻀﻔﻟا‬
‫ﺔﺛﻼﺛ‬‫ﻓﮭﻢ‬
‫‪.‬ﺎ‬ ‫ﻂﻘﻓ‬‫ﺔﺛﻼﺛ‬
‫إﻟﻰ‬
‫اﻻﺻﻄﻨﺎﻋﻲ‬
‫ءﺎﻀﻔﻟا‬ ‫ﺔﺛﻼﺛ‬‫ﻂﻘﻓﻂﻘﻓ‬
‫ﻞﮭﺴﯿﻟ‬ ‫ﻞﮭﺴﯿﻟ‬
‫ﺎﮭﻠﯿﺜﻤﺗ‬
‫اﻻﺻﻄﻨﺎﻋﻲ‬ ‫ﻞﮭﺴﯿﻟ‬ ‫ﺎﮭﻠﯿﺜﻤﺗ‬
‫ﯾﺮﺼﺑ‬
‫اﻟﺬﻛﺎء‬‫ﺎﮭﻠﯿﺜﻤﺗ‬ ‫ﯾﺮﺼﺑ‬
‫اﻟﺬﻛﺎء‬
‫ﻓﻲ‬ ‫ﯾﺮﺼﺑ‬ ‫ﻓﻲ‬
‫اﻟﺒﺎﺣﺜﻮن‬ ‫اﻟﺒﺎﺣﺜﻮن‬ ‫وﯾﮭﺪف‬ ‫وﯾﮭﺪف‬
‫وﻣﺤﺎوﻟﺔ إﻟﻰ ﻓﮭﻢ اﻹدر‬ ‫اﻻﺻﻄﻨﺎﻋﻲ‬ ‫وﻣﺤﺎوﻟﺔ‬
‫اﻟﺒﺸﺮي‪،‬‬ ‫اﻟﺒﺸﺮي‪،‬‬
‫اﻟﺬﻛﺎء‬ ‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷ﻓﻲ‬
‫اﻹدراك‬ ‫اﻹدراك‬
‫‪.‬ﺎ‬
‫!‬
‫ءﺎﻀﻔﻟا‬
‫اﻟﺒﺎﺣﺜﻮن‬‫ﻓﮭﻢ‬ ‫ﺔﺛﻼﺛ‬
‫إﻟﻰ‬ ‫ﻓﮭﻢ‬
‫ﻂﻘﻓ‬
‫وﯾﮭﺪف‬ ‫إﻟﻰ‬
‫ﻞﮭﺴﯿﻟ‬
‫اﻻﺻﻄﻨﺎﻋﻲ‬ ‫اﻻﺻﻄﻨﺎﻋﻲ‬
‫ﺎﮭﻠﯿﺜﻤﺗ‬ ‫ﯾﺮﺼﺑ‬
‫اﻟﺬﻛﺎء‬ ‫ﺎ‪.‬‬‫ً‬ ‫ّ‬ ‫ﻓﻲ‬
‫ﯾ‬ ‫اﻟﺬﻛﺎء‬
‫ﺑﺼﺮ‬ ‫اﻟﺒﺎﺣﺜﻮن‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫ﺗﻤﺜﯿﻠﮭﺎ‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫!‬
‫!‬
‫ﻓﻲ‬ ‫ً‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬
‫ﺎ‪.‬‬ ‫ّ‬
‫ﻟﯿﺴﮭﻞ‬‫ﯾ‬ ‫اﻟﺒﺎﺣﺜﻮن‬
‫ﺑﺼﺮ‬
‫𝑚𝑚𝑚𝑚𝐷𝐷𝐷𝐷𝐷𝐷𝐷𝐷‬ ‫!‬ ‫!‬‫وﯾﮭﺪف‬
‫ﻓﻘﻂ‬
‫ﺗﻤﺜﯿﻠﮭﺎ‬ ‫وﯾﮭﺪف‬
‫ﺛﻼﺛﺔ‬
‫ﻟﯿﺴﮭﻞ‬
‫اﻟﻔﻀﺎء‬
‫ﻓﻘﻂ‬ ‫ﺛﻼﺛﺔ‬ ‫اﻟﻔﻀﺎء‬
‫!‬
‫افرتضناأنأنأبعاد‬
‫هناافرتضنا‬ ‫الكامن‪.‬هنا‬
‫الداليلالكامن‪.‬‬ ‫الفضاءالداليل‬ ‫‪44‬الفضاء‬ ‫املفاهيميف‬
‫نفساملفاهيم‬
‫التيهلاهلانفس‬
‫تقاربالكلامت التي‬
‫الشكل‪ :3‬تقارب‬‫الشكل‬
‫أبعاد أﺑﻌﺎد‬
‫اﻓﺘﺮﺿﻨﺎ أن‬ ‫اﻟﻜﺎﻣﻦ‪ .‬ھﻨﺎ‬ ‫اﻟﻔﻀﺎء اﻟﺪﻻﻟﻲ‬ ‫اﻟﻤﻔﺎھﯿﻢيفﻓﻲ‬ ‫ﻟﮭﺎ ﻧﻔﺲ‬ ‫الكلامت اﻟﺘﻲ‬
‫‪ ::3‬ﺗﻘﺎرب اﻟﻜﻠﻤﺎت‬ ‫اﻟﺸﻜﻞ ‪3‬‬
‫اﻟﺪﻻﻟﻲا‪.‬ا‪.‬‬
‫اﻟﻜﺎﻣﻦ‪ًّ .‬ي‬
‫برص‬ ‫متثيلها‬ ‫ليسهل‬ ‫فقط‬
‫‪4444‬‬
‫ثالثة‬ ‫الفضاء‬
‫‪44‬‬
‫أﺑﻌﺎد أن أﺑﻌﺎد‪44‬‬
‫‪44‬‬
‫ﻓﻲ اﻟﻔﻀﺎء اﻟﺪﻻﻟﻲ اﻟﻜﺎﻣ‬ ‫اﻟﻤﻔﺎھﯿﻢ‬ ‫اﻓﺘﺮﺿﻨﺎ‬
‫ﻧﻔﺲأن أﺑﻌﺎد‬‫أﺑﻌﺎد‬‫اﻟﺘﻲأنأن‬
‫ﻟﮭﺎ‬
‫اﻓﺘﺮﺿﻨﺎ‬ ‫اﻓﺘﺮﺿﻨﺎ‬
‫ھﻨﺎ‬ ‫ھﻨﺎﯾًّﺎ‪.‬‬
‫اﻟﻜﺎﻣﻦ‪.‬‬
‫اﻓﺘﺮﺿﻨﺎ‬
‫ھﻨﺎ‬ ‫اﻟﻜﻠﻤﺎت‬
‫اﻟﻜﺎﻣﻦ‪.‬‬ ‫ﺑﺼﺮ‬
‫ھﻨﺎ‬ ‫برص ًّي‬
‫اﻟﻜﺎﻣﻦ‪.‬‬
‫ﺗﻘﺎرب‬
‫اﻟﺪﻻﻟﻲ‬ ‫متثيلها‬
‫اﻟﺪﻻﻟﻲ‬
‫اﻟﻔﻀﺎء‪:‬‬
‫ﺗﻤﺜﯿﻠﮭﺎ‬ ‫ليسهل‬
‫ﻟﯿﺴﮭﻞ‬
‫اﻟﺪﻻﻟﻲ ‪3‬‬
‫اﻟﺸﻜﻞ‬
‫اﻟﻔﻀﺎء‬
‫‪44‬‬
‫ﻓﻲ‬
‫ﻓﻲ‬‫‪44‬‬
‫فقطﻓﻘﻂ‬
‫اﻟﻔﻀﺎء‬
‫اﻟﻔﻀﺎء‬
‫‪44‬‬
‫‪44‬‬
‫‪44‬‬ ‫ﻓﻲ‬
‫اﻟﻤﻔﺎھﯿﻢ‬
‫ﺛﻼﺛﺔ‬
‫ﻓﻲ‬
‫اﻟﻤﻔﺎھﯿﻢ‬‫‪44‬‬
‫ثالثة‬
‫ﻧﻔﺲ‬
‫ﻧﻔﺲ‬ ‫الفضاءﻟﮭﺎ‬
‫ﻧﻔﺲ ﻟﮭﺎ ‪44‬‬
‫اﻟﻤﻔﺎھﯿﻢ‬
‫اﻟﻔﻀﺎء‬
‫اﻟﻤﻔﺎھﯿﻢ‬ ‫ﻟﮭﺎﻧﻔﺲ‬
‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫اﻟﺘﻲﻟﮭﺎ‬
‫اﻟﻜﻠﻤﺎتاﻟﺘﻲ‬
‫اﻟﻜﻠﻤﺎت‬
‫اﻟﻜﻠﻤﺎت‬ ‫ﺗﻘﺎرب‬ ‫ﺗﻘﺎرب‪::33‬‬
‫اﻟﻜﻠﻤﺎت‬
‫ﺗﻘﺎرب‬ ‫اﻟﺸﻜﻞ‪:3:3‬اﻟﺸﻜﻞ‬
‫اﻟﺸﻜﻞ‬
‫ﺗﻘﺎرب‬ ‫اﻟﺸﻜﻞ‬
‫اﻟﻔﻀﺎء ﺛﻼﺛﺔ ﻓﻘﻂ ﻟﯿﺴﮭﻞ ﺗﻤﺜﯿﻠﮭﺎ ﺑﺼﺮﯾًّﺎ‪.‬‬ ‫ﺑﺼﺮﯾًّﯾًّﺎ‪.‬ﺎ‪.‬‬ ‫ﺑﺼﺮﺎ‪.‬ﯾًّ‬
‫ﺗﻤﺜﯿﻠﮭﺎﺎ‪.‬‬
‫ﺗﻤﺜﯿﻠﮭﺎ ﺑﺼﺮ‬ ‫ﺑﺼﺮﯾًّ‬‫ﺗﻤﺜﯿﻠﮭﺎ‬
‫ﻟﯿﺴﮭﻞ‬ ‫ﻟﯿﺴﮭﻞ‬
‫ﻓﻘﻂ‬
‫ﺗﻤﺜﯿﻠﮭﺎ‬
‫ﻟﯿﺴﮭﻞ‬ ‫ﻓﻘﻂ‬ ‫ﻓﻘﻂﺛﻼﺛﺔ‬
‫ﺛﻼﺛﺔ‬
‫ﻟﯿﺴﮭﻞ‬ ‫ﺛﻼﺛﺔﻓﻘﻂ‬
‫اﻟﻔﻀﺎءﺛﻼﺛﺔ‬
‫اﻟﻔﻀﺎء‬
‫اﻟﻔﻀﺎء‬ ‫اﻟﻔﻀﺎء‬

‫‪-٤١-‬‬
‫‪-41-‬‬
‫‪ -٤‬اخلامتة‬
‫ٍ‬
‫المنته من الرتاكيب اللغوية‪.‬‬ ‫اللغة البرشية نظام ُمع َّقد يمكن من خالله ُ‬
‫إنتاج عدد‬
‫وهيدف الباحثون يف الذكاء االصطناعي إىل فهم اإلدراك البرشي‪ ،‬وحماولة حماكاته؛‬
‫مكن أن تعالج اللغة البرشية يف خمتلف مستوياهتا‪.‬‬ ‫حاسوبية ي ِ‬
‫ٍ‬ ‫ٍ‬
‫أنظمة‬ ‫وذلك بتطوير‬
‫ُ‬
‫وهتدف هذه املعاجلة يف النهاية إىل متكني اإلنسان من التخاطب مع اآللة باستخدام‬
‫اللغة التي يتخاطب هبا مع أقرانه‪ ،‬ولكن هذا اهلدف يواجه حتديات كثرية اطلعنا يف هذا‬
‫الفصل عىل جزء منها‪ .‬وهذه التحديات موجودة يف مجيع مستويات معاجلة اللغة بدء ًا‬
‫من معاجلة الصوت وحتى معاجلة اخلطاب‪ .‬وترتكَّز أبرز الطرق املستخدمة حاليا يف‬
‫معاجلة اللغات البرشية حول استخدام تع ُّلم اآللة والتعرف النمطي‪ .‬ويعكف الباحثون‬
‫جمال تع ُّلم اآللة والتعرف النمطي عىل حماكاة تعلم اإلنسان وطريقته يف التعرف‬
‫يف َ ْ‬
‫عىل األنامط‪ ،‬ومن ثم حماكاة هذه الطرق وتطبيقها عىل جماالت عدة من ضمنها معاجلة‬
‫اللغات البرشية‪ .‬وبالرغم من صعوبة الوصول إىل تطوير أنظمة حاسوبية يمكن أن‬
‫حتاكي استخدام اإلنسان للغة البرشية بشكل عام‪ ،‬إال أن الباحثني نجحوا يف تطوير‬
‫العديد من األنظمة التي تعالج مها َّم حمددة كفك الغموض الرتكيبي‪ ،‬أو التحليل‬
‫الرصيف‪ ،‬أو تلك املتعلقة باخلطاب‪.‬‬

‫شكر وتقدير‬
‫الشكر هلل سبحانه وتعاىل َّأو ًل عىل تيسريه وإنعامه‪ ،‬ثم الشكر للوالدين الكريمني‬ ‫ُّ‬
‫لدعمهام الدائم‪ .‬بو ِّدي أن أتقدَّ م بالشكر لألساتذة د‪ .‬إبراهيم اخلرايش‪ ،‬د‪ .‬حممد‬
‫الكنهل‪ ،‬ود‪ .‬منصور الغامدي عىل ُجهودهم املبكرة يف دعم العمل البحثي عىل معاجلة‬
‫اللغة العربية يف مدينة امللك عبدالعزيز للعلوم والتقنية‪ .‬كام أتقدَّ م بالشكر لألستاذة‬
‫سارة العسكر عىل ُمراجعتها اللغوية هلذا الفصل‪ .‬أود أن أشكر مجيع من عملت معهم‬
‫يف مدينة امللك عبدالعزيز للعلوم والتقنية عىل مشاريع يف َ‬
‫جمال تعلم اآللة ومعاجلة اللغة‬
‫العربية والتي كانت سبب ًا يف تعلم الكثري‪.‬‬
‫تفهمهم انشغايل املستمر خالل‬ ‫ِ‬
‫أخريا وليس آخ ًرا‪ ،‬أشكر زوجتي وأوالدي عىل ُّ‬ ‫ً‬
‫كتابة هذا الفصل‪.‬‬

‫‪-42-‬‬
‫املراجع‬

Alexander Clark. (2002). Unsupervised Language Acquisition: Theory


and Practice. Essex: School of Cognitive and Computing
Sciences, University of Sussex.
Christopher D. Manning، ‫ و‬Hinrich Schütze. (1999). Foundations
of Statistical Natural Language Processing (1 ‫)اإلصدار‬. MIT
Press.
Daniel Jurafsky، ‫ و‬James H. Martin. (2008). Speech and Language
Processing (2 ‫)اإلصدار‬. Prentice Hall.
Daniel Marcu. (2000). The Theory and Practice of Discourse Parsing
and Summarization. Daniel Marcu.
Eugene Charniak. (1997). Statistical parsing with a context-free
grammar and word statistics. AAAI Press، 598-603 ‫الصفحات‬.
George Casella، ‫ و‬Roger L. Berger. (2001). Statistical Inference
(2 ‫)اإلصدار‬. Duxbury Press.
Ion Androutsopoulos، ‫ و‬Prodromos Malakasiotis. (2010). A Survey
of Paraphrasing and Textual Entailment Methods. Journal of
Artificial Intelligence Research، 38(1)، 135-187.
James Allen. (1994). Natural Language Understanding (2 ‫)اإلصدار‬.
Pearson.
John J. McCarthy. (2018 ). Formal Problems in Semitic Phonology
and Morphology (2 ‫)اإلصدار‬. Routledge .
Jonathan Allen، M. Sharon Hunnicutt، Dennis H. Klatt، Robert C.
Armstrong، ‫ و‬David B. Pisoni. (1987). From Text to Speech:
The MITalk System. Cambridge University Press.
Joseph C. Giarratano، ‫ و‬Gary D. Riley. (2004). Expert Systems:
Principles and Programming. Course Technology.

-43-
Lawrence R. Rabiner، ‫ و‬Biing-Hwang Juang. (1986). An Introduction
to Hidden Markov Models. IEEE ASSP Magazine.
Mark Gales، ‫ و‬Steve Young. (2007). The Application of Hidden
Markov Models in Speech Recognition (‫ اإلصدار‬Volume 1
Issue 3). Foundations and Trends in Signal Processing.
Olivier Cappé، Eric Moulines، ‫ و‬Tobias Ryden. (2007). Inference in
Hidden Markov Models. Springer.
Sandra Kübler، ‫ و‬Emad Mohamed. (2011). Part of Speech Tagging for
Arabic. Natural Language Engineering، 18(4)، 521-548.
Scott Deerwester، Susan T. Dumais، George W. Furnas، Thomas K.
Landauer، ‫ و‬Richard Harshman. (1990). Indexing by Latent
Semantic Analysis. Journal of the American Society for
Information Science، 41(6)، 391--407.
Stephen Boyd، ‫ و‬Lieven Vandenberghe. (2004). Convex Optimization.
Cambridge University Press.
Thomas K. Landauer، ‫ و‬Susan T. Dumais. (1997). A Solution to
Plato’s Problem: The Latent Semantic Analysis Theory of
Acquisition, Induction, and Representation of Knowledge.
Psychological Review، 104(2)، 211-240.
Thomas Landauer، Peter W. Foltz، ‫ و‬Darrell Laham. (1998).
An Introduction to Latent Semantic Analysis. Discourse
Processes، 2(3)، 259–284.
Tom M. Mitchell. (1997). Machine Learning (1 ‫)اإلصدار‬. McGraw-
Hill.
Wolfgang Sternefeld، ‫ و‬Wolfgang Sternefeld. (2013). Introduction to
Semantics. De Gruyter Mouton.

-44-
‫الفصل الثاني‬
‫التعلم العميق وتطبيقاته يف معاجلة اللغة‬

‫د‪ .‬فارس بن صالح القنيعري‬

‫‪-45-‬‬
-46-
‫ملخص الفصل‬
‫يعد تع ّلم اآللة أحد املجاالت الفرعية للذكاء االصطناعي‪ ،‬وهيتم بصنع خوارزميات‬
‫تتيح للحاسب التع ّلم من البيانات للخروج بنامذج تفيد الكثري من التطبيقات‪ ،‬كمعاجلة‬
‫اللغات‪ .‬إحدى جمموعات اخلوارزميات التي انترشت بشكل كبري يف الفرتة األخرية‬
‫هي خوارزميات التع ّلم العميق‪ ،‬التي هي امتداد خلوارزميات الشبكات العصبية‪.‬‬
‫يرجع سبب انتشار استخدام التع ّلم العميق إىل قدرهتا عىل تع ّلم نامذج بالغة التعقيد‬
‫كان من الصعب تعلمها سابق ًا‪ ،‬مما أتاح العديد من التطبيقات التي تعالج احتياجات‬
‫واقعية‪ ،‬كرؤية احلاسب ومعاجلة اللغات الطبيعية‪.‬‬
‫يف هذا الفصل عرض موجز عن الشبكات العصبية والتعلم العميق‪ .‬يف البداية سيتم‬
‫التحدث عن التسلسل التارخيي لتطور هذه اخلوارزميات‪ ،‬ثم التطرق ألهم املعامريات‬
‫املستخدمة‪ ،‬ويف النهاية عرض لبعض تطبيقاهتا يف معاجلة اللغات الطبيعية‪ ،‬وذلك‬
‫للخروج بفهم عام عن خوارزميات التعلم العميق وكيفية تطبيقها يف جمال معاجلة‬
‫اللغات من دون الدخول يف التفاصيل الدقيقة لكل خوارزمية‪ ،‬حتى يكون لدى‬
‫الباحث تصور ملا يمكن أن يقدمه التعلم العميق يف املجاالت املختلفة يف معاجلة اللغات‬
‫الطبيعية‪.‬‬

‫د‪ .‬فارس بن صالح القنيعري‬


‫حصل عىل درجة البكالوريوس يف هندسة الربجميات‪ ،‬ودرجة املاجستري يف علوم‬
‫احلاسب من جامعة امللك فهد للبرتول واملعادن يف اململكة العربية السعودية‪ ،‬ودرجة‬
‫الدكتوراه يف هندسة وتصميم النظم من جامعة واترلو يف كندا‪ .‬من اهتامماته البحثية‪:‬‬
‫تعلم اآللة‪ ،‬حتليل األنامط والتعرف عليها‪ ،‬ومعاجلة الصور‪ .‬وقد عمل عىل العديد من‬
‫املشاريع البحثية مثل التعرف عىل لوحات السيارات السعودية‪ ،‬التعرف عىل األشخاص‬
‫عن طريق السامت احليوية (القزحية والوجه)‪ ،‬التعرف عىل األنسجة الرسطانية‬
‫وتصنيفها يف صور املاموجرام‪ ،‬تقسيم وحتديد الربوستاتا يف صور الرنني املغناطييس‪،‬‬
‫التعرف عىل نوبات الرصع عن طريق إشارات الدماغ الكهربائية‪ ،‬وتصنيف النصوص‬
‫واملشاعر يف اللغة العربية‪.‬‬

‫‪-47-‬‬
‫‪ -1‬مقدمة‬
‫يعد تع ّلم اآللة (‪ )Machine Learning‬أحد املجاالت الفرعية للذكاء االصطناعي‬
‫(‪ ،)Artificial Intelligence‬وهيتم بصنع خوارزميات تتيح للحاسب التع ّلم من‬
‫البيانات للخروج بنامذج تفيد الكثري من التطبيقات‪ ،‬كمعاجلة اللغات‪ .‬إحدى‬
‫جمموعات اخلوارزميات التي انترشت بشكل كبري يف الفرتة األخرية هي خوارزميات‬
‫التع ّلم العميق (‪ ،)Deep Learning‬التي هي امتداد خلوارزميات الشبكات العصبية‬
‫(‪ .)Neural Networks‬يرجع انتشار استخدام خوارزميات التع ّلم العميق إىل‬
‫قدرهتا عىل تع ّلم نامذج بالغة التعقيد كان من الصعب تعلمها سابق ًا‪ ،‬مما أتاح العديد‬
‫من التطبيقات التي تعالج احتياجات واقعية‪ ،‬كرؤية احلاسب (‪)Computer Vision‬‬
‫ومعاجلة اللغات الطبيعية (‪.)NLP‬‬
‫سأحتدث يف هذا الفصل عن الشبكات العصبية والتعلم العميق وتطبيقاهتام يف معاجلة‬
‫اللغات الطبيعية‪ ،‬واهلدف اخلروج بفهم عام عن خوارزميات التعلم العميق وكيفية‬
‫تطبيقها يف جمال معاجلة اللغات من دون الدخول يف التفاصيل الدقيقة لكل خوارزمية‪،‬‬
‫حتى يكون لدى الباحث تصور ملا يمكن أن يقدمه التعلم العميق يف املجاالت املختلفة‬
‫يف معاجلة اللغات الطبيعية‪.‬‬

‫‪ -2‬تاريخ الشبكات العصبية والتع ّلم العميق‬


‫قبل أن أحتدث عن التعلم العميق‪ ،‬جيدر أن أستعرض التسلسل التارخيي خلوارزميات‬
‫الشبكات العصبية‪ ،‬وكيف تطورت إىل ما هي عليه اآلن‪ .‬ترجع البدايات لعام ‪1943‬م‪،‬‬
‫حيث قام وارن مكولش (‪ )Warren McCulloch‬ووالرت بيتز (‪ )Walter Pitts‬بوضع‬
‫نموذج ريايض لكيفية عمل العقل وصنع نموذج للعصبونات (‪ ،)neurons‬التي‬
‫تستخدم حتى اآلن كمكون أسايس للشبكات العصبية (‪McCulloch & Walter,‬‬
‫‪ .)1943‬ويف عام ‪1949‬م قام دونالد هيب (‪ )Donald Hebb‬برشح كيف أن الروابط‬
‫بني العصبونات البيولوجية التي تستخدم سوي ًا تقوى مع كل استخدام (‪Hebb,‬‬
‫‪ ،)1949‬وهي توضح كيف يتم التعلم‪ .‬يف عام ‪1958‬م قام فرانك روزنبالت (‪Frank‬‬
‫‪ )Rosenblatt‬بصنع جهاز ا ُملستَقبِل (‪ ، (Rosenblatt, 1958) )Perceptron‬وهو‬

‫‪-48-‬‬
‫حماكاة للنموذج الذي قام بوضعه كل من مكولش وبيتز عام ‪ .1943‬ا ُملستَقبِل هو‬
‫عبارة عن مصنّف خطي (‪ )linear classifier‬يستقبل ُمدخالت ويقوم بجمعها بشكل‬
‫موزون حسب األوزان ثم إخراج القيمة ‪ 0‬أو ‪ 1‬بنا ًء عىل قيمة احلد (‪.)threshold‬‬
‫الشكل ‪ 1‬يوضح خوارزمية ا ُملستَقبِل‪.‬‬

‫الشكل ‪ :1‬ا ُملستَقبِل (‪)Perceptron‬‬

‫ويف هذه األثناء كان كل من برنارد ويلدرو (‪ )Bernard Wildrow‬ومارسيان هوف‬


‫(‪ )Marcian Hoff‬يعمالن عىل نوع آخر من الشبكات العصبية تم نرشه عام ‪1960‬م‬
‫أسمياه ‪ ، (Widrow, 1960) ADALINE‬ثم طوراه عام ‪1962‬م إىل ‪MADALINE‬‬
‫(‪ Winter‬و ‪ .)Widrow, 1988‬وقد تم استخدام هذه الشبكات إلزالة الصدى من‬
‫املكاملات اهلاتفية‪ ،‬وال تزال تستخدم جتاري ًا حتى اآلن‪.‬‬
‫ما كان يعيب الشبكات العصبية يف تلك األثناء أهنا كانت مصنّف خ ّطي ال تتمكن‬
‫طية (‪ .)non-linear‬وقد قام مارفن منسكي (‪Marvin‬‬ ‫اللخ ّ‬
‫من تصنيف املشاكل ّ‬
‫‪ )Minsky‬وسيمور بابرت (‪ )Seymour Papert‬بتأليف كتاب عام ‪1969‬م يوضح‬
‫حدود خوارزمية ا ُملستَقبِل ‪ perceptron‬ومشاكلها (‪ Minsky‬و ‪.)Papert, 1969‬‬
‫ولعل أشهر مثال ذكروه هو عجزها عن تصنيف ‪ .XOR‬اجلدول التايل يوضح قيم‬
‫‪ XOR‬ملدخلني ‪ A‬و‪:B‬‬

‫‪-49-‬‬
‫‪A XOR B‬‬ ‫‪B‬‬ ‫‪A‬‬

‫‪0‬‬ ‫‪0‬‬ ‫‪0‬‬

‫‪0‬‬ ‫‪1‬‬ ‫‪1‬‬

‫‪1‬‬ ‫‪0‬‬ ‫‪1‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪0‬‬

‫جدول ‪ :1‬قيم ‪XOR‬‬

‫والشكل التايل يوضح أنه ال يمكن فصل القيم الناجتة باستخدام خط مستقيم‪ ،‬ألن‬
‫املشكلة غري خ ّطية‪ ،‬هلذا ال يمكن استخدام خوارزمية ا ُملستَقبِل حلل ‪.XOR‬‬

‫الشكل ‪ :2‬تصنيف قيم ‪XOR‬‬

‫بعد توضيح هذه املشاكل حدث جفاء كبري بني جمتمع الذكاء االصطناعي‬
‫وخوارزميات الشبكات العصبية‪ ،‬وانقطع دعم األبحاث املتعلقة هبا بشكل كبري‪ .‬وقد‬
‫استمر ذلك حتى بدايات عام ‪1980‬م‪.‬‬

‫‪-50-‬‬
‫بدأ االهتامم بالشبكات العصبية يعود بسبب عدة أحداث متوالية‪ ،‬بدء ًا من مشاركة‬
‫جلون هوبفيلد (‪ )John Hopfield‬عام ‪1982‬م يف مؤمتر لألكاديمية الوطنية للعلوم‬
‫(‪ ،)Hopfield، 1982‬حيث رشح الشبكة التي حتمل اآلن اسم شبكة هوبفيد‪ ،‬وعاد‬
‫بسببها الكثري من الباحثني إىل الشبكات العصبية‪ .‬ثم تاله إعالن اليابان عودهتا لدعم‬
‫األبحاث املتعلقة بالشبكات العصبية‪ ،‬وتال ذلك استحداث مؤمترات سنوية وجمالت‬
‫علمية متخصصة يف الشبكات العصبية‪ ،‬كل ذلك زاد من زخم الدعم والنرش العلمي يف‬
‫هذا املجال‪ .‬ولعل أهم األمور التي أ َّث َرت يف مسرية الشبكات العصبية مها خوارزميتي‬
‫االنتشار العكيس (‪ )backpropagation‬والنزول االشتقاقي (‪.)gradient descent‬‬
‫بالرغم من اقرتاحها يف الستينات‪ ،‬إال أن خوارزمية االنتشار العكيس تم إعادة رشحها‬
‫بشكل أوضح وإشهارها عن طريق كتاب (‪Learning Internal Representation by‬‬
‫‪ )Propagation Error‬الذي نرش عام ‪1986‬م من تأليف روميلهارت (‪)Rumelhart‬‬
‫وهينتون (‪ )Hinton‬وويليامز (‪ ،Hinton ،Rumelhart( )Williams‬و ‪،Williams‬‬
‫‪ .)1986‬ويف التسعينات وما بعدها تم اقرتاح العديد من أنواع الشبكات العصبية التي‬
‫ال تزال تستخدم حتى اآلن‪ ،‬مثل ‪ LSTM‬و‪ ،CNN‬وسأتكلم عنهام الحق ًا يف هذا الفصل‪.‬‬
‫كام ذكرت سابق ًا‪ ،‬التعلم العميق هو فعلي ًا شبكات عصبية ولكن بطبقات أكثر‪.‬‬
‫فتاريخ التعلم العميق مرتبط بشكل كبري بالشبكات العصبية‪ .‬ولكن كان هناك مشاكل‬
‫تعيق تدريب شبكات هبذا التعقيد‪ ،‬كقلة البيانات وضعف القدرة احلاسوبية وبعض‬
‫املشاكل يف اخلوارزميات التي تم حلها تدرجيي ًا‪ .‬املوجة الثالثة يف انتشار استخدام‬
‫الشبكات العصبية هي عهد التعلم العميق‪ ،‬حيث بدأت عىل األرجح عام ‪2006‬م‬
‫ببحث منشور يرشح كيفية تدريب شبكات عميقة من نوع ‪Deep Belief Networks‬‬
‫(‪ ،Osindero ،Hinton‬و ‪ .)2006 ،Teh‬ولكن الشهرة احلقيقية التي سببت انتشار‬
‫استخدام التعلم العميق هو فوز خوارزمية تعلم عميق (‪،Krizhevsky( AlexNet‬‬
‫‪ ،Sutskever‬و ‪ ))2012 ،Hinton‬بتحدي ‪Large Scale Visual Recognition‬‬
‫)‪ Challenge (ILSVRC‬عام ‪2012‬م باملركز األول بفارق كبري جد ًا بني املركزين‬
‫األول والثاين‪ .‬هذا التفوق الكبري فتح أعني الباحثني عىل القدرة الكبرية للتعلم العميق‬
‫يف بعض املجاالت كرؤية احلاسب ومعاجلة اللغات الطبيعية‪ .‬وال يزال املجتمع البحثي‬
‫نشط جد ًا يف األبحاث املتعلقة بالتعلم العميق وكيفية تطبيقه يف خمتلف املجاالت‪.‬‬

‫‪-51-‬‬
‫‪ -3‬أسباب نجاح التعلم العميق‬
‫كام يتضح من تاريخ الشبكات العصبية‪ ،‬فالكثري من املفاهيم املستخدمة يف التعلم‬
‫العميق تم استخدامها منذ زمن بعيد‪ .‬ولكن هناك عدة أسباب أدت إىل نجاح التعلم‬
‫العميق الحق ًا‪ ،‬يمكن اختصارها يف أربعة أسباب أساسية‪:‬‬
‫‪ -1‬البيانات الضخمة‪ :‬مع رخص وسائل التخزين وزيادة سعاهتا‪ ،‬إضافة إىل سهولة‬
‫تسجيل البيانات وتنوعها صار باإلمكان مجع بيانات ضخمة‪ .‬أحد متطلبات‬
‫تدريب نامذج التعلم العميق املعقدة هو توفر بيانات ضخمة يمكنها تعلم املاليني‬
‫من األوزان‪.‬‬
‫‪ -2‬املعاجلات الرسومية‪ :‬يتطلب تدريب الشبكات العميقة عمليات حسابية كثرية جد ًا‪،‬‬
‫حيث يتم تعلم ماليني األوزان‪ .‬باستخدام املعاجلات الرسومية صار باإلمكان توزيع‬
‫العمليات احلسابية بالتوازي (‪ ،)parallel‬مما ساهم يف ترسيع التدريب بشكل كبري‪.‬‬
‫‪ -3‬تطور خوارزميات الشبكات العصبية‪ :‬مما ساهم يف نجاح تدريب الشبكات العميقة‬
‫حل بعض املشاكل كتاليش املشتقة (‪ )vanishing gradient‬وانفجار املشتقة‬
‫(‪ .)exploding gradient‬وكذلك اقرتاح استخدام دوال تفعيل جديدة مثل دالة‬
‫ريلو‪ ،‬وغريها من التطويرات العديدة‪.‬‬
‫‪ -4‬ثقافة املشاركة يف جمتمعات الذكاء االصطناعي وتعلم اآللة‪ :‬أحد العوامل املهمة يف‬
‫انتشار استخدام التعلم العميق هو ثقافة املشاركة يف جمتمعات الذكاء االصطناعي‪.‬‬
‫وثقافة املشاركة تتضمن نتائج األبحاث واألوراق العلمية عن طريق نرشها جمان ًا‬
‫عىل مواقع مثل ‪ ،arxiv.org‬مما يتيح للجميع الوصول هلا بدون اشرتاكات باهظة‬
‫الثمن‪ .‬باإلضافة إىل مشاركة األكواد والربامج والبيانات‪.‬‬

‫‪ -4‬الشبكات العصبية والتعلم العميق‬


‫تعد الشبكات العصبية من اخلوارزميات املهمة يف جمال تع ّلم اآللة‪ ،‬وهي تتبع ملدرسة‬
‫تسمى التشبيكية (‪ ،)connectiontist‬والتي استقت أفكارها من حماولة حماكاة الدماغ‬
‫البرشي وتشابك األعصاب‪ .‬فكام رشح دونالد هيب بأنه عند التعلم تقوى روابط‬

‫‪-52-‬‬
‫العصبونات التي تستخدم سوي ًا‪ ،‬وهي الفكرة األساسية التي تقوم عليها الشبكات‬
‫العصبية‪ ،‬حيث تسعى اخلوارزمية أن تتعلم أوزان الروابط بني العصبونات‪ .‬الشبكات‬
‫العصبية تستطيع تعلم مشاكل غري خطية يف غاية التعقيد‪.‬‬
‫تتكون الشبكات العصبية بشكل أسايس من عصبونات (‪ )neurons‬وأوزان‬
‫الروابط (‪ )weights‬ودوال تفعيل (‪ ،)activation functions‬وكذلك من مدخالت‬
‫(‪ )inputs‬وخمرجات (‪ ،)outputs‬كام هو موضح يف الشكل ‪ .3‬وهي تتكون غالب ًا من‬
‫عدة طبقات (‪.)layers‬‬

‫ﺑﺴﯿﻄﺔبسيطة‬
‫شبكةﯿﺔعصبية‬ ‫الشكل ‪:3‬‬
‫ﺷﺒﻜﺔ ﻋﺼﺒ‬ ‫ﺷﻜﻞ ‪:3‬‬

‫اﻟﻄﺒﻘﺔقيم الطبقة‬
‫رضب‬ ‫طريقﻗﯿﻢ‬
‫عنﺿﺮب‬ ‫طﺮﯾﻖ‬ ‫اﻟﺪاﺧﻠﯿﺔ ﻋﻦ‬
‫الداخلية‬ ‫اﻟﻄﺒﻘﺎتالطبقات‬ ‫ﻋﺼﺒﻮن ﻓﻲ‬
‫عصبون يف‬ ‫حسابﻛﻞقيمة كل‬‫ﺣﺴﺎب ﻗﯿﻤﺔ‬
‫ﯾﺘﻢ يتم‬
‫التفعيل كام‬ ‫داﻟﺔدالة‬
‫اﻟﺘﻔﻌﯿﻞ‬ ‫النتيجة إىل‬ ‫إدخال‬
‫اﻟﻨﺘﯿﺠﺔ إﻟﻰ‬ ‫االنحياز‪،b،‬ﺛﻢ ثم‬
‫إدﺧﺎل‬ ‫قيمةاﻻﻧﺤﯿﺎز ‪b‬‬
‫وإضافةﻗﯿﻤﺔ‬
‫باألوزانوإﺿﺎﻓﺔ‬
‫تسبقهاﺑﺎﻷوزان‬
‫التيﺗﺴﺒﻘﮭﺎ‬
‫اﻟﺘﻲ‬
‫املعادلة‪:‬‬
‫اﻟﻤﻌﺎدﻟﺔ‪:‬‬ ‫موضح يف‬
‫ﻣﻮﺿﺢ ﻓﻲ‬ ‫هو ھﻮ‬
‫ﻛﻤﺎ‬

‫!‬

‫(∅ = 𝑏𝑏 ‪ℎ 𝑋𝑋, 𝑊𝑊, 𝑏𝑏 = ∅ 𝑋𝑋𝑋𝑋 +‬‬ ‫) !𝑏𝑏 ‪𝑥𝑥! ∙ 𝑤𝑤! +‬‬


‫!!!‬

‫ﺣﯿﺚ ‪ X‬ﻣﺼﻔﻮﻓﺔ ﺗﺤﺘﻮي ﻋﻠﻰ ﻗﯿﻢ اﻟﻤﺪﺧﻼت أو اﻟﻄﺒﻘﺔ اﻟﺴﺎﺑﻘﺔ‪ W ،‬ﻣﺼﻔﻮﻓﺔ ﺑﻘﯿﻢ‬
‫‪-53-‬‬
‫اﻷوزان‪ ،‬و‪ b‬ﻣﺘﺠﮫ ﺑﻘﯿﻢ اﻻﻧﺤﯿﺎز )‪ ،(bias‬و∅ ھﻲ داﻟﺔ اﻟﺘﻔﻌﯿﻞ‪ .‬ﯾﺠﺪر اﻟﺘﺄﻛﯿﺪ أن‬
‫!‬

‫) !𝑏𝑏 ‪ℎ 𝑋𝑋, 𝑊𝑊, 𝑏𝑏 = ∅ 𝑋𝑋𝑋𝑋 + 𝑏𝑏 = ∅( ! 𝑥𝑥! ∙ 𝑤𝑤! +‬‬


‫) !𝑏𝑏 ‪ℎ 𝑋𝑋, 𝑊𝑊, 𝑏𝑏 = ∅ 𝑋𝑋𝑋𝑋 + 𝑏𝑏 = ∅(!!! 𝑥𝑥! ∙ 𝑤𝑤! +‬‬
‫!!!‬
‫ﺣﯿﺚ ‪ X‬ﻣﺼﻔﻮﻓﺔ ﺗﺤﺘﻮي ﻋﻠﻰ ﻗﯿﻢ اﻟﻤﺪﺧﻼت أو اﻟﻄﺒﻘﺔ اﻟﺴﺎﺑﻘﺔ‪ W ،‬ﻣﺼﻔﻮﻓﺔ ﺑﻘﯿﻢ‬
‫ﺑﻘﯿﻢبقيم‬
‫مصفوفةأن‬
‫اﻟﺘﺄﻛﯿﺪ‬ ‫السابقة‪WW،‬‬
‫ﯾﺠﺪرﻣﺼﻔﻮﻓﺔ‬ ‫الطبقةاﻟﺴﺎﺑﻘﺔ‪،‬‬
‫اﻟﺘﻔﻌﯿﻞ‪.‬‬ ‫داﻟﺔ‬ ‫املدخالت∅أوأوھﻲ‬
‫اﻟﻄﺒﻘﺔ‬ ‫قيم)‪ ،(bias‬و‬
‫اﻟﻤﺪﺧﻼت‬ ‫حتتوي عىل‬
‫اﻻﻧﺤﯿﺎزﻗﯿﻢ‬
‫ﻋﻠﻰ‬ ‫ﺑﻘﯿﻢي‬ ‫مصفوفة‬
‫ﻣﺘﺠﮫﺗﺤﺘﻮ‬
‫ﻣﺼﻔﻮﻓﺔ‬ ‫حيث ‪X‬‬
‫‪X‬‬ ‫ﺣﯿﺚ‬
‫اﻷوزان‪ ،‬و‪b‬‬
‫املعادلة‬
‫ﻋﺼﺒﻮن‬ ‫التأكيد أن‬
‫اﻟﺘﺄﻛﯿﺪ أن‬
‫ﯾﺠﺪرﻟﻜﻞ‬‫جيدر‬
‫ﺗﺤﺴﺐ‬ ‫التفعيل‪.‬‬
‫اﻟﺘﻔﻌﯿﻞ‪.‬‬ ‫دالةداﻟﺔ‬
‫وﯾﺠﺐ أن‬ ‫ھﻲ‬ ‫هي‬ ‫‪bias‬و(‪،‬‬
‫واﺣﺪو∅‬
‫ﻓﻘﻂ‪،‬‬ ‫∅‬ ‫‪،)bias‬‬ ‫االنحياز (‬
‫اﻻﻧﺤﯿﺎز )‬
‫ﻋﺼﺒﻮن‬ ‫بقيم‬
‫ﺗﻤﺜﻞﺑﻘﯿﻢﺣﺴﺎب‬
‫ﻣﺘﺠﮫ‬‫متجه‬ ‫األوزان‪ ،‬و‬
‫اﻟﻤﻌﺎدﻟﺔ‪b‬‬
‫اﻷوزان‪ ،‬و‪b‬‬
‫اﻟﺴﺎﺑﻘﺔ‬
‫طبقة‪.‬‬
‫ﻋﺼﺒﻮن‬‫ﻟﻜﻞيف كل‬
‫عصبون‬
‫لكلﺗﺤﺴﺐ‬ ‫ﻓﻘﻂ‪،‬حتسب‬
‫وﯾﺠﺐ أن‬ ‫وجيب أن‬
‫فقط‪ ،‬واﺣﺪ‬
‫ﻋﺼﺒﻮن‬ ‫واحد‬ ‫عصبون‬
‫ﺣﺴﺎب‬ ‫حسابﺗﻤﺜﻞ‬
‫اﻟﺴﺎﺑﻘﺔ‬ ‫متثل‬ ‫السابقة‬
‫اﻟﻤﻌﺎدﻟﺔطﺒﻘﺔ‪.‬‬
‫ﻓﻲ ﻛﻞ‬
‫تكتسب‬ ‫خالهلا‬
‫ﺗﻜﺘﺴﺐ‬ ‫ﺧﻼﻟﮭﺎ‬ ‫ﻓﻤﻦفمن‬
‫العصبية‪،‬‬
‫اﻟﻌﺼﺒﯿﺔ‪،‬‬‫للشبكات‬
‫األساسيةﻟﻠﺸﺒﻜﺎت‬
‫املكوناتاﻷﺳﺎﺳﯿﺔ‬
‫مناﻟﻤﻜﻮﻧﺎت‬ ‫التفعيلﻣﻦ‬
‫دالةطﺒﻘﺔ‪.‬‬
‫اﻟﺘﻔﻌﯿﻞ‬ ‫داﻟﺔ‬ ‫تعد‬
‫ﺗﻌﺪ ﻛﻞ‬‫ﻓﻲ‬
‫األكثر‬ ‫ﺧﻼﻟﮭﺎ ًاﻛﺎنكان‬
‫ﺗﻜﺘﺴﺐ‬
‫اﻷﻛﺜﺮ‬ ‫سابق‬
‫التفعيل‪،‬ﺳﺎﺑﻘﺎ ً‬ ‫أﻧﻮاعلدالة‬
‫اﻟﻌﺼﺒﯿﺔ‪ ،‬ﻓﻤﻦ‬
‫اﻟﺘﻔﻌﯿﻞ‪،‬‬ ‫ﻟﺪاﻟﺔ‬ ‫ﻋﺪةأنواع‬
‫ﻟﻠﺸﺒﻜﺎت‬‫عدة‬ ‫هناك‬
‫اﻷﺳﺎﺳﯿﺔ‬
‫ھﻨﺎك‬ ‫اخلطي‪.‬‬
‫غريﻏﯿﺮ اﻟ‬
‫اﻟﻤﻜﻮﻧﺎت‬
‫ﺨﻄﻲ‪.‬‬ ‫ﻣﻦ‬ ‫التصنيف‬
‫اﻟﺘﻔﻌﯿﻞ‬
‫اﻟﺘﺼﻨﯿﻒ‬ ‫قوهتاﺗﻌﺪيف‬
‫ﻗﻮﺗﮭﺎداﻟﺔﻓﻲ‬
‫ﻋﺪة أﻧﻮاع ﻟﺪاﻟﺔ اﻟﺘﻔﻌﯿﻞ‪ ،‬ﺳﺎﺑﻘﺎ ً ﻛﺎن اﻷﻛﺜﺮ‬ ‫‪:)sigmoid‬‬ ‫سيجمويد (‬
‫ﺨﻄﻲ‪ .‬ھﻨﺎك‬ ‫اﻟﺘﺼﻨﯿﻒ ﻏﯿﺮ اﻟ‬ ‫استخدام ًاﻓﻲ ً‬
‫مها دالتي‬
‫اﺳﺘﺨﺪاﻣﺎ ھﻤﺎ داﻟﺘﻲ ﺳﯿﺠﻤﻮﯾﺪ )‪:(sigmoid‬‬ ‫ﻗﻮﺗﮭﺎ‬
‫‪:(sigmoid‬‬‫اﺳﺘﺨﺪاﻣﺎ ً ھﻤﺎ داﻟﺘﻲ ﺳﯿﺠﻤﻮﯾﺪ ) ‪1‬‬
‫= 𝑧𝑧 ∅‬
‫!! 𝑒𝑒‪1 −1‬‬
‫= 𝑧𝑧 ∅‬
‫!! 𝑒𝑒 ‪1 −‬‬
‫وداﻟﺔ اﻟﻈﻞ اﻟﺰاﺋﺪي )‪:(Tanh‬‬
‫)‪:‬‬‫ودالة الظل الزائدي (‪Tanh‬‬
‫(‪𝑒𝑒 ! − 𝑒𝑒:‬‬‫وداﻟﺔ اﻟﻈﻞ اﻟﺰاﺋﺪي )‪!!Tanh‬‬
‫!! = 𝑧𝑧 ∅‬ ‫!!‬
‫‪𝑒𝑒 +‬‬ ‫!!𝑒𝑒𝑒𝑒 ‪−‬‬
‫! = 𝑧𝑧 ∅‬
‫اﻟﻤﻮﺿﺤﯿﻦ ﻓﻲ اﻟﺸﻜﻠﯿﻦ ‪ 4‬و!!‪𝑒𝑒 + 𝑒𝑒.5‬‬
‫اﻟﻤﻮﺿﺤﯿﻦ ﻓﻲ اﻟﺸﻜﻠﯿﻦ ‪ 4‬و‪.5‬‬
‫املوضحني يف الشكلني ‪ 4‬و‪.5‬‬

‫‪57‬‬

‫‪57‬‬

‫الشكل ‪ :4‬دالة سيجمويد‬

‫‪-54-‬‬
‫الشكل ‪ :5‬دالة ‪Tanh‬‬

‫أشهرها‬ ‫العميق‪،‬‬
‫أﺷﮭﺮھﺎ‬ ‫للتعلماﻟﻌﻤﯿﻖ‪،‬‬
‫فعاليةﻟﻠﺘﻌﻠﻢ‬
‫أكثرﻓﻌﺎﻟﯿﺔ‬
‫أخرىأﻛﺜﺮ‬
‫دوالأﺧﺮى‬
‫إىلدوال‬ ‫مؤخر ًاﺗﻢتماﻟﺘﻮﺟﮫ‬
‫التوجهإﻟﻰ‬ ‫ولكنﻣﺆﺧﺮاً‬
‫وﻟﻜﻦ‬
‫‪:)ReLU‬‬
‫‪:(ReLU‬‬ ‫هيھﻲدالةداﻟﺔريلو (‬
‫رﯾﻠﻮ )‬ ‫استخدام ًا‬
‫اﺳﺘﺨﺪاﻣﺎ ً‬ ‫وأكثرها‬
‫وأﻛﺜﺮھﺎ‬
‫)𝑧𝑧 ‪∅ 𝑧𝑧 = max (0,‬‬
‫‪..6‬‬ ‫اﻟﻤﻮﺿﺤﺔيفﻓﻲالشكل‬
‫اﻟﺸﻜﻞ ‪6‬‬ ‫املوضحة‬

‫شكل ‪ :6‬دالة ريلو‬


‫ﺷﻜﻞ ‪ :6‬داﻟﺔ رﯾﻠﻮ‬

‫‪-55-‬‬
‫‪ 4.1‬ﺗﺪرﯾﺐ اﻟﺸﺒﻜﺎت اﻟﻌﺼﺒﯿﺔ‬
‫‪ 4.1‬تدريب الشبكات العصبية‬
‫اخلوارزمية األشهر استخدام ًا لتدريب الشبكات العصبية هي خوارزمية االنتشار‬
‫العكيس (‪ .)backpropagation‬وفيها يتم استهالل األوزان عشوائي ًا يف البداية ثم‬
‫حساب املخرجات كام تم رشحه لكل عصبون يف كل طبقة‪ .‬بعد ذلك يتم حساب دالة‬
‫التكلفة (‪ )cost function‬التي توضح مقدار اخلطأ يف املخرجات‪ .‬هناك عدة دوال‬
‫حلساب التكلفة‪ ،‬مثل دالة ‪:)MSE( Mean Squared Error‬‬
‫! !‬
‫!‬
‫‪11‬‬
‫𝑀𝑀𝑀𝑀𝑀𝑀‬
‫𝑀𝑀𝑀𝑀𝑀𝑀‬ ‫==‬ ‫!!!𝑦𝑦 !!𝑦𝑦‬
‫‪𝑦𝑦!! 𝑦𝑦−! −‬‬ ‫!‬
‫𝑛𝑛 𝑛𝑛‬ ‫!!!‬
‫!!!‬
‫!!!‬
‫الشبكة‬
‫اﻟﺸﺒﻜﺔ‬ ‫ﻣﻦمن‬
‫اﻟﺸﺒﻜﺔ‬
‫ﻣﻦ‬ ‫املخرجات‬
‫اﻟﻤﺨﺮﺟﺎت‬ ‫قيمة‬
‫اﻟﻤﺨﺮﺟﺎت‬
‫ﻗﯿﻤﺔ‬ ‫ھﻲهي‬
‫ﻗﯿﻤﺔ‬
‫ھﻲ‬ ‫التدريب‪𝑦𝑦،‬وو𝑦𝑦‬
‫اﻟﺘﺪرﯾﺐ‪،‬‬ ‫لعينات‬
‫اﻟﺘﺪرﯾﺐ‪ ،‬و‬ ‫احلقيقية‬
‫ﻟﻌﯿﻨﺎت‬
‫ﻟﻌﯿﻨﺎت‬ ‫القيم‬
‫اﻟﺤﻘﯿﻘﯿﺔ‬
‫اﻟﺤﻘﯿﻘﯿﺔ‬ ‫ھﻲهي‬
‫اﻟﻘﯿﻢاﻟﻘﯿﻢ‬
‫ھﻲ‬ ‫حيث 𝑦𝑦‬
‫𝑦𝑦‬
‫ﺣﯿﺚ‬‫ﺣﯿﺚ‬
‫العصبية‪.‬‬
‫اﻟﻌﺼﺒﯿﺔ‪.‬‬
‫اﻟﻌﺼﺒﯿﺔ‪.‬‬
‫طريق‬
‫طﺮﯾﻖ‬ ‫عن‬
‫طﺮﯾﻖ‬‫تكراريﻋﻦ‬
‫ﻋﻦ‬
‫ﺗﻜﺮاري‬‫بشكل‬
‫ﺗﻜﺮاري‬ ‫التكلفة‬
‫ﺑﺸﻜﻞ‬
‫ﺑﺸﻜﻞ‬ ‫دالة‬
‫اﻟﺘﻜﻠﻔﺔ‬
‫اﻟﺘﻜﻠﻔﺔ‬ ‫لتقليل‬
‫داﻟﺔداﻟﺔ‬ ‫األوزان‬
‫ﻟﺘﻘﻠﯿﻞ‬
‫ﻟﺘﻘﻠﯿﻞ‬ ‫اﻷوزان‬
‫اﻷوزان‬ ‫حتديث‬
‫ﺗﺤﺪﯾﺚ‬
‫ﺗﺤﺪﯾﺚ‬ ‫ﯾﺘﻢيتم‬
‫ﯾﺘﻢ‬ ‫ذلك‬
‫ذﻟﻚ‬‫ذﻟﻚ‬‫عىل‬
‫ﻋﻠﻰ‬‫ﻋﻠﻰ‬‫ﺑﻨﺎ ًء ًء‬
‫ﺑﻨﺎ ًءبنا‬
‫حتى‬ ‫األوزان‪،‬‬
‫اﻷوزان‪،‬‬
‫اﻷوزان‪،‬‬ ‫لتحديث‬
‫ﻟﺘﺤﺪﯾﺚ‬
‫ﻟﺘﺤﺪﯾﺚ‬ ‫واستخدامه‬
‫واﺳﺘﺨﺪاﻣﮫ‬
‫واﺳﺘﺨﺪاﻣﮫ‬ ‫‪)gradient‬‬
‫‪(gradient‬‬
‫‪(gradient‬‬ ‫‪descent‬‬
‫‪descent‬‬
‫‪descent‬‬ ‫اﻻﺷﺘﻘﺎﻗﻲ ()‬
‫االشتقاقي‬
‫اﻻﺷﺘﻘﺎﻗﻲ )‬ ‫النزول‬
‫اﻟﻨﺰول‬ ‫ﺣﺴﺎب‬
‫اﻟﻨﺰول‬ ‫ب‬‫حساب‬ ‫ﺣﺴﺎ‬
‫ﻣﻘﺒﻮﻟﺔ‪.‬‬
‫ﻣﻘﺒﻮﻟﺔ‪.‬‬ ‫مقبولة‪.‬‬
‫ﻧﺘﯿﺠﺔ‬
‫ﻧﺘﯿﺠﺔ‬ ‫نتيجة‬
‫إﻟﻰإﻟﻰ‬ ‫الوصول إىل‬
‫اﻟﻮﺻﻮل‬
‫اﻟﻮﺻﻮل‬ ‫ﺣﺘﻰﺣﺘﻰ‬

‫ﻣﻌﻤﺎرﯾﺎتاﻟﺸﺒﻜﺎت‬
‫اﻟﺸﺒﻜﺎت‬ ‫‪5 5‬ﻣﻌﻤﺎرﯾﺎت‬
‫‪ -5‬معامريات الشبكات‬
‫ﻣﻌﻤﺎرﯾﺔ‬
‫ﻣﻌﻤﺎرﯾﺔهلا‬
‫معامرية‬ ‫ﻛﻞكل‬
‫ﻛﻞ‬ ‫ﺣﯿﺚ‬
‫حيث‬‫ﺣﯿﺚ‬ ‫اﻟﻤﻄﻠﻮب‪،‬‬
‫اﻟﻤﻄﻠﻮب‪،‬‬
‫املطلوب‪،‬‬ ‫اﻟﺘﻄﺒﯿﻖ‬
‫اﻟﺘﻄﺒﯿﻖ‬
‫التطبيق‬ ‫ﺣﺴﺐ‬
‫حسب‬‫ﺣﺴﺐ‬ ‫اﻟﻌﺼﺒﯿﺔ‬
‫اﻟﻌﺼﺒﯿﺔ‬
‫العصبية‬ ‫اﻟﺸﺒﻜﺎت‬
‫اﻟﺸﺒﻜﺎت‬
‫الشبكات‬ ‫ﻣﻌﻤﺎرﯾﺎت‬
‫ﻣﻌﻤﺎرﯾﺎت‬
‫معامريات‬ ‫ﺗﺘﻨﻮع‬
‫ﺗﺘﻨﻮع‬
‫تتنوع‬
‫اﻟﻤﻌﻤﺎرﯾﺎتًا‪.‬‬
‫اﻟﻤﻌﻤﺎرﯾﺎت‬
‫استخدام‬ ‫ﻣﻦﻣﻦأﻛﺜﺮأﻛﺜﺮ‬
‫املعامريات‬ ‫ﻟﺜﻼﺛﺔ‬
‫أكثر‬ ‫لثالثةھﻨﺎمن‬
‫ﻟﺜﻼﺛﺔ‬ ‫اﻟﺘﻄﺮقھﻨﺎ‬
‫اﻟﺘﻄﺮق‬ ‫وﺳﯿﺘﻢ‬
‫ﺑﻐﯿﺮھﺎ‪.‬وﺳﯿﺘﻢ‬
‫التطرق هنا‬ ‫ﺑﻐﯿﺮھﺎ‪.‬‬
‫وسيتم‬ ‫ﺗﺘﻮﻓﺮ‬
‫تتوفرﻻﺗﺘﻮﻓﺮ‬
‫بغريها‪.‬‬ ‫ﺧﺼﺎﺋﺺﻻ‬
‫ﺧﺼﺎﺋﺺ‬
‫خصائص ال‬ ‫ﻟﮭﺎﻟﮭﺎ‬
‫الكثرية‪،‬‬
‫اﻟﻄﺒﻘﺎت‬ ‫الطبقات‬
‫اﻟﻄﺒﻘﺎت‬
‫ذاتذات‬ ‫اﻟﺸﺒﻜﺎت ذات‬
‫اﻟﻌﺼﺒﯿﺔ‬
‫اﻟﻌﺼﺒﯿﺔ‬ ‫العصبية‬
‫اﻟﺸﺒﻜﺎت‬ ‫الشبكات‬
‫ﻋﻠﻰ‬ ‫ﻋﻠﻰ‬ ‫عىل‬
‫اﻟﻌﻤﯿﻖ‬
‫اﻟﻌﻤﯿﻖ‬ ‫العميق‬
‫اﻟﺘﻌﻠﻢ‬
‫اﻟﺘﻌﻠﻢ‬ ‫إطﻼق‬ ‫التعلم‬
‫إطﻼق‬ ‫إطالق‬
‫ﯾﺘﻢ ﯾﺘﻢ‬
‫ﻋﺎم‬ ‫ﻋﺎم‬ ‫ﺑﺸﻜﻞ‬
‫ﺑﺸﻜﻞ‬ ‫اﺳﺘﺨﺪاﻣ ًﺎ‪.‬‬
‫يتم‬ ‫اﺳﺘﺨﺪاﻣﺎ ً‪.‬‬
‫عام‬ ‫بشكل‬
‫عميقة‪،‬‬
‫اﻟﺸﺒﻜﺔ‬ ‫شبكة‬ ‫الشبكة‬
‫ﻧﻄﻠﻖﻋﻠﻰﻋﻠﻰ‬
‫اﻟﺸﺒﻜﺔ‬ ‫عىل‬
‫ﺣﺘﻰﻧﻄﻠﻖ‬ ‫نطلق‬
‫اﻟﻄﺒﻘﺎتﺣﺘﻰ‬ ‫حتى‬
‫اﻟﻄﺒﻘﺎت‬ ‫الطبقات‬
‫ﻟﻌﺪدﻟﻌﺪد‬
‫ﻋﻠﯿﮫ‬ ‫لعدد‬
‫ﻣﺘﻔﻖﻋﻠﯿﮫ‬ ‫عليه‬
‫ﻣﺤﺪدﻣﺘﻔﻖ‬ ‫متفق‬
‫رﻗﻢﻣﺤﺪد‬ ‫حمدد‬
‫ﯾﻮﺟﺪرﻗﻢ‬ ‫رقم‬
‫وﻻﯾﻮﺟﺪ‬ ‫يوجد‬
‫اﻟﻜﺜﯿﺮة‪،‬وﻻ‬ ‫وال‬
‫اﻟﻜﺜﯿﺮة‪،‬‬
‫إمكانية‬
‫اﻟﻄﺒﻘﺎت‬ ‫زادت‬
‫اﻟﻄﺒﻘﺎت‬
‫ﻋﺪدﻋﺪد‬‫الطبقات‬
‫زاد‬ ‫زاد‬
‫وﻛﻠﻤﺎ‬ ‫عدد‬
‫وﻛﻠﻤﺎ‬ ‫زاد‬
‫أﻛﺜﺮ‪.‬‬
‫أﻛﺜﺮ‪.‬‬ ‫وكلام أو‬
‫أو‬
‫أﻗﻞأﻗﻞ‬ ‫أكثر‪.‬‬
‫وﺑﻌﻀﮭﻢ‬
‫وﺑﻌﻀﮭﻢ‬ ‫أقل‪10‬أو‬
‫‪10‬‬ ‫وبعضهم‬
‫ﯾﻌﺪھﺎ‬
‫ﯾﻌﺪھﺎ‬ ‫ﻋﻤﯿﻘﺔ‪10،‬‬
‫ﻓﺒﻌﻀﮭﻢ‬
‫ﻓﺒﻌﻀﮭﻢ‬ ‫يعدها‬
‫ﻋﻤﯿﻘﺔ‪،‬‬ ‫فبعضهم‬
‫ﺷﺒﻜﺔ‬‫ﺷﺒﻜﺔ‬
‫أﻋﻘﺪ‪.‬‬ ‫ﻣﻔﺎھﯿﻢ‬
‫أﻋﻘﺪ‪.‬‬ ‫ﻣﻔﺎھﯿﻢ‬ ‫أعقد‪.‬‬
‫وﺗﻌﻠﻢ‬
‫وﺗﻌﻠﻢ‬ ‫مفاهيم‬
‫ﻟﺘﻤﺜﯿﻞ‬ ‫وتعلم‬
‫اﻟﺸﺒﻜﺔ‬
‫ﻟﺘﻤﺜﯿﻞ‬ ‫لتمثيل‬
‫إﻣﻜﺎﻧﯿﺔ‬
‫اﻟﺸﺒﻜﺔ‬ ‫إﻣﻜﺎﻧﯿﺔ‬ ‫الشبكة‬
‫زادت‬
‫زادت‬
‫‪Multi-Layer‬‬
‫‪Multi-Layer‬‬
‫‪Multi-Layer‬‬ ‫‪Perceptron‬‬
‫‪Perceptron‬‬
‫‪Perceptron‬‬ ‫) ))‬
‫اﻟﻄﺒﻘﺎت‬
‫اﻟﻄﺒﻘﺎت‬ ‫ﻣﺘﻌﺪد‬
‫اﻟﻄﺒﻘﺎت‬
‫ﻣﺘﻌﺪد‬ ‫ِﻞﻞ‬
‫ﻣﺘﻌﺪد‬ ‫ﻞﺒ‬
‫ِ‬
‫ﺒ‬
‫ل متعدد الطبقات ()‪)Multi-Layer Perceptron (MLP‬‬ ‫(‬
‫)‪(MLP‬بَِ‬
‫ِﻘﻘ‬
‫ﺒ‬
‫ﺘ‬
‫َ‬ ‫ﻘﺘ‬
‫َﺴﺴ‬
‫َق‬
‫(‬‫ت‬
‫ﺘ‬‫ﺴﻤ‬
‫ُﻤ‬
‫س‬
‫ُ‬ ‫اﻟ‬
‫ُ‬
‫اﻟ‬
‫مل‬
‫)‪(MLP‬‬
‫اﻟﻤ‬
‫ُ‬
‫ا‬
‫‪5.1‬‬
‫‪5.1‬‬
‫‪5.1‬‬
‫‪5.1‬‬
‫)‪((MLP‬‬
‫يعد املستقبل متعدد الطبقات أحد أشهر خوارزميات الشبكات العصبية‪ ،‬وهي‬
‫النسخة التي يكون رشح الشبكات العصبية عليها يف البداية غالب ًا‪ ،‬وقد تم رشحها يف‬
‫الفصل السابق‪ ،‬انظر الشكل ‪ .7‬ويتم تسمية طريقة تشابك طبقاهتا بـ «الطبقات تامة‬

‫‪-56-‬‬
‫االتصال» (‪ ،)fully connected layers‬حيث يف الغالب يتصل كل عصبون يف طبقة‬
‫مع مجيع العصبونات يف الطبقات التي تسبقها‪.‬‬

‫الشكل ‪ :7‬شبكة ا ُملستَقبِل متعدد الطبقات (‪)MLP‬‬

‫‪ 5.2‬الشبكات العصبية الرتشيحية (‪)Convolutional Neural Networks‬‬


‫تتعامل الشبكات العصبية الرتشيحية يف الغالب مع مصفوفات ثنائية األبعاد‪ ،‬والتي‬
‫تكون عىل األرجح صور‪ .‬طريقة التعلم قريبة من اآللية التي تم رشحها هنا‪ ،‬ولكن‬
‫الفرق يف طريقة متثيل الطبقات وتشاهبها‪ .‬يف الشبكات الرتشيحية بدالً من تعلم األوزان‬
‫بني كل عصبون واملقابل له يف الطبقة التي تليه‪ ،‬يتم تعلم عدة مرشحات (‪filters/‬‬
‫‪ )kernals‬يمكن تطبيقها عىل الصور ككل‪ .‬هبذه الطريقة يتم تقليل عدد األوزان التي‬
‫جيب تعلمها بشكل كبري جد ًا‪ ،‬مما يسهم يف ترسيع عملية التعلم وتقليل فرط التخصيص‬
‫(‪ .)overfitting‬هذه اخلاصية يطلق عليها مشاركة ا ُملدخالت (‪.)parameter sharing‬‬
‫هناك عدة أنواع للطبقات يف الشبكات الرتشيحية (أنظر الشكل ‪ ،)8‬أمهها‪:‬‬
‫‪ -1‬طبقات الرتشيح (‪ :)convolutional layer‬وفيها يتم تطبيق املرشحات التي يتم‬
‫تعلم أوزاهنا‪.‬‬

‫‪-57-‬‬
‫‪ -2‬طبقات التقليص (‪ :)layer pooling‬وفيها يتم تقليص حجم الصور‪ ،‬وقد يكون‬
‫التقليص باملعدل (‪ )mean pooling‬أو بالقيمة األكرب (‪.)max pooling‬‬
‫‪ -3‬الطبقات تامة االتصال (‪ :)fully connected layers‬وهي مثل التي تم رشحها يف‬
‫السابق‪ ،‬يتم حتويل املصفوفات ثنائية األبعاد إىل متجه من بعد واحد‪ .‬وقد يكون‬
‫هناك أكثر من طبقة تامة االتصال قبل طبقة املخرجات (‪.)output layer‬‬

‫الشكل ‪ :8‬شبكة عصبية ترشيحية‬

‫‪ 5.3‬الشبكات العصبية التكرارية ( ‪)Recurrent Neural Networks‬‬

‫يف أنواع الشبكات التي تم رشحها حتى اآلن ال يؤخذ الزمن أو العالقة بني‬
‫سالسل البيانات باالعتبار‪ .‬ولكن هناك العديد من التطبيقات التي جيب أن تأخذ يف‬
‫احلسبان عالقة البيانات بني بعضها يف السياق الزمني‪ ،‬كالتعرف عىل الكالم (‪Speech‬‬
‫ﺣﺘﻰ اﻵن‬ ‫اﻟﺘﻲ (ﺗﻢ ﺷﺮﺣﮭﺎ‬ ‫اﻟﺸﺒﻜﺎت‬ ‫‪ .(Optical‬ﻓﻲ‬ ‫‪Character‬‬ ‫‪Recognition‬‬ ‫)‬
‫‪Optical‬‬
‫ﺣﺘﻰ اﻵن‬
‫ﺷﺮﺣﮭﺎاﻵن‬
‫ﺣﺘﻰ‬‫‪Character‬اﻵن‬
‫اﻟﺘﻲ ﺗﻢ‬
‫ﺷﺮﺣﮭﺎ‬
‫ﺣﺘﻰ‬ ‫ﺷﺮﺣﮭﺎ‬‫املطبوعةاﻟﺘﻲ‬
‫اﻟﺸﺒﻜﺎتﺗﻢ‬‫اﻟﺸﺒﻜﺎتﺗﻢ‬
‫اﻟﺘﻲ‬ ‫النصوص‬
‫اﻟﺸﺒﻜﺎت(‪ .‬ﻓﻲ‬
‫‪Optical‬‬ ‫عىلﻓﻲ‬
‫‪ .(Optical‬ﻓﻲ‬ ‫كالتعرف‬
‫‪Character‬‬
‫‪Character‬‬
‫‪.(Optical‬‬ ‫‪Recognition‬املكاين‬
‫أو‬
‫‪Recognition‬‬
‫‪Character‬‬ ‫‪،)Recognition‬‬
‫‪Recognition‬‬
‫)‬ ‫)‬ ‫)‬
‫اﻟﺬي‬
‫مستقلة‬ ‫اﻟﺴﯿﺎق‬
‫واملخرجات‬‫ﻧﺴﺘﺨﺪم‬ ‫أن‬
‫املدخالت‬ ‫ﯾﺼﻌﺐ‬ ‫اآلن‬ ‫ﻟﺬا‬ ‫ﺑﻌﻀﮭﺎ‪،‬‬ ‫ﻋﻦ‬ ‫ﻣﺴﺘﻘﻠﺔ‬ ‫واﻟﻤﺨﺮﺟﺎت‬ ‫اﻟﻤﺪﺧﻼت‬
‫اﻟﺴﯿﺎق اﻟﺬي‬ ‫ﻧﺴﺘﺨﺪم‬
‫اﻟﺴﯿﺎق اﻟﺬي‬
‫اﻟﺬي‬ ‫ﯾﺼﻌﺐ أن‬
‫ﻧﺴﺘﺨﺪم‬
‫اﻟﺴﯿﺎق‬ ‫ﯾﺼﻌﺐ أن‬
‫ﻧﺴﺘﺨﺪم‬ ‫حتىﻟﺬا‬
‫ﺑﻌﻀﮭﺎ‪،‬أنﻟﺬا‬
‫ﯾﺼﻌﺐ‬ ‫ﻋﻦ‬‫رشحها‬
‫ﺑﻌﻀﮭﺎ‪،‬‬ ‫ﻣﺴﺘﻘﻠﺔتمﻋﻦ‬
‫ﻣﺴﺘﻘﻠﺔ‬
‫ﺑﻌﻀﮭﺎ‪ ،‬ﻟﺬا‬
‫التي‬ ‫الشبكات‬
‫واﻟﻤﺨﺮﺟﺎت‬
‫واﻟﻤﺨﺮﺟﺎت‬
‫ﻣﺴﺘﻘﻠﺔ ﻋﻦ‬
‫‪ .)Recognition‬يف‬
‫اﻟﻤﺪﺧﻼت‬
‫واﻟﻤﺨﺮﺟﺎت‬‫اﻟﻤﺪﺧﻼت‬ ‫اﻟﻤﺪﺧﻼت‬
‫بعضها‪ ،‬لذا يصعب أن نستخدم السياق الذي تأيت املدخالت فيها (كمكان احلرف يف‬
‫اﻟﺸﺒﻜﺎت‬ ‫اﻟﺠﻤﻠﺔ(‪.‬‬ ‫ﻓﻲ‬ ‫اﻟﻜﻠﻤﺔ‬ ‫أو‬ ‫اﻟﻜﻠﻤﺔ‬ ‫ﻓﻲ‬ ‫اﻟﺤﺮف‬ ‫)ﻛﻤﻜﺎن‬ ‫ﻓﯿﮭﺎ‬ ‫اﻟﻤﺪﺧﻼت‬ ‫عنﺗﺄﺗﻲ‬
‫اﻟﺸﺒﻜﺎت‬ ‫اﻟﺠﻤﻠﺔ(‪.‬‬
‫اﻟﺸﺒﻜﺎت‬ ‫اﻟﺠﻤﻠﺔ(‪ .‬ﻓﻲ‬
‫اﻟﺠﻤﻠﺔ(‪.‬‬
‫اﻟﺸﺒﻜﺎت‬ ‫اﻟﻜﻠﻤﺔ‬ ‫اﻟﻜﻠﻤﺔﻓﻲأو‬
‫اﻟﻜﻠﻤﺔ ﻓﻲ‬ ‫اﻟﺤﺮفأوﻓﻲ‬
‫اﻟﻜﻠﻤﺔ أو‬
‫اﻟﻜﻠﻤﺔ‬ ‫)ﻛﻤﻜﺎن‬
‫اﻟﺤﺮف ﻓﻲ‬
‫اﻟﻜﻠﻤﺔ‬ ‫)ﻛﻤﻜﺎن ﻓﯿﮭﺎ‬
‫)ﻛﻤﻜﺎن‬
‫اﻟﺤﺮف ﻓﻲ‬ ‫اﻟﻤﺪﺧﻼت‬ ‫ﺗﺄﺗﻲﻓﯿﮭﺎ‬
‫اﻟﻤﺪﺧﻼت ﻓﯿﮭﺎ‬ ‫ﺗﺄﺗﻲ ﺗﺄﺗﻲ‬
‫اﻟﻤﺪﺧﻼت‬
‫طريق‬ ‫املشكلة عن‬
‫اﻟﻤﺪﺧﻼت‬ ‫التكراريةﻣﺎحتلﺗﻢ هذه‬
‫ﺗﻌﻠﻤﮫ ﻣﻦ‬ ‫طﺮﯾﻖ ﺗﺬﻛﺮ‬ ‫العصبية‬ ‫اجلملة)‪.‬ھﺬهالشبكات‬
‫اﻟﻤﺸﻜﻠﺔ ﻋﻦ‬ ‫اﻟﻌﺼﺒﯿﺔالكلمة يف‬
‫اﻟﺘﻜﺮارﯾﺔ ﺗﺤﻞ‬ ‫الكلمة أو‬
‫اﻟﻤﺪﺧﻼت‬ ‫اﻟﻤﺪﺧﻼتﻣﻦ‬
‫اﻟﻤﺪﺧﻼت‬ ‫ﺗﻌﻠﻤﮫ‬
‫ﺗﻢ ﻣﻦ‬ ‫ﺗﺬﻛﺮ ﻣﺎ‬
‫ﺗﻌﻠﻤﮫ‬
‫ﻣﻦ‬ ‫طﺮﯾﻖ ﻣﺎ‬
‫ﺗﻌﻠﻤﮫﺗﻢ‬ ‫ﺗﺬﻛﺮ‬ ‫ﻋﻦ‬
‫طﺮﯾﻖﻣﺎ ﺗﻢ‬‫اﻟﻤﺸﻜﻠﺔﺗﺬﻛﺮ‬ ‫اﻟﻤﺸﻜﻠﺔ ھﺬه‬
‫اﻟﻤﺸﻜﻠﺔ ﻋﻦ‬
‫طﺮﯾﻖ‬ ‫ﻋﻦ‬ ‫ﺗﺤﻞ‬
‫اﻟﺘﻜﺮارﯾﺔھﺬه‬
‫ﺗﺤﻞ‬ ‫اﻟﻌﺼﺒﯿﺔ‬
‫اﻟﺘﻜﺮارﯾﺔھﺬه‬
‫ﺗﺤﻞ‬ ‫اﻟﻌﺼﺒﯿﺔاﻟﻌﺼﺒﯿﺔ‬
‫اﻟﺘﻜﺮارﯾﺔ‬
‫واستخدامها‬
‫اﻟﺤﺎﻟﯿﺔ‪ ،‬أﻧﻈﺮ‬‫املاضية‬ ‫ﻣﻊ احلالة‬
‫اﻟﻤﺪﺧﻼت‬ ‫اﻣﮭﺎتعلم‬
‫يمكن‬
‫واﺳﺘﺨﺪ‬‫اﻟﻤﺎﺿﯿﺔوهبذا‬
‫اﻟﺤﺎﻟﺔالسابقة‪،‬‬
‫املدخالت‬ ‫تعلمه من‬
‫ﯾﻤﻜﻦ ﺗﻌﻠﻢ‬ ‫تم وﺑﮭﺬا‬ ‫تذكر ما‬
‫اﻟﺴﺎﺑﻘﺔ‪،‬‬
‫أﻧﻈﺮ‪ ،‬أﻧﻈﺮ‬
‫أﻧﻈﺮ‪،‬اﻟﺤﺎﻟﯿﺔ‬
‫اﻟﻤﺪﺧﻼت‬
‫اﻟﺤﺎﻟﯿﺔ‬ ‫اﻟﻤﺪﺧﻼتﻣﻊ‬
‫اﻟﻤﺪﺧﻼت‬
‫اﻟﺤﺎﻟﯿﺔ‪،‬‬ ‫واﺳﺘﺨﺪﻣﻊاﻣﮭﺎ‬
‫ﻣﻊاﻣﮭﺎ‬ ‫اﻟﻤﺎﺿﯿﺔ‬
‫واﺳﺘﺨﺪ‬ ‫اﻟﺤﺎﻟﺔ‬
‫اﻟﻤﺎﺿﯿﺔ‬
‫واﺳﺘﺨﺪاﻣﮭﺎ‬ ‫ﯾﻤﻜﻦ ﺗﻌﻠﻢ‬
‫اﻟﺤﺎﻟﺔ‬
‫اﻟﻤﺎﺿﯿﺔ‬ ‫وﺑﮭﺬااﻟﺤﺎﻟﺔ‬
‫ﺗﻌﻠﻢ‬ ‫اﻟﺴﺎﺑﻘﺔ‪،‬ﺗﻌﻠﻢ‬
‫ﯾﻤﻜﻦ‬ ‫وﺑﮭﺬا‬
‫اﻟﺴﺎﺑﻘﺔ‪ ،‬ﯾﻤﻜﻦ‬
‫اﻟﺴﺎﺑﻘﺔ‪ ،‬وﺑﮭﺬا‬
‫حساب قيمة كل عصبون كالتايل‪:‬‬ ‫ويتمﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻋﺼﺒﻮن‬ ‫الشكل ‪.9‬‬
‫أنظرﻗﯿﻤﺔ ﻛﻞ‬ ‫احلالية‪،‬‬
‫ﺣﺴﺎب‬ ‫املدخالتوﯾﺘﻢ‬
‫معاﻟﺸﻜﻞ ‪.9‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻋﺼﺒﻮن‬ ‫ﻗﯿﻤﺔ ﻛﻞ‬
‫ﻋﺼﺒﻮن‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫ﺣﺴﺎبﻛﻞ‬
‫ﻋﺼﺒﻮن‬ ‫ﯾﺘﻢ‬
‫ﺣﺴﺎبﻛﻞﻗﯿﻤﺔ‬ ‫ﺣﺴﺎب‪ .9‬و‬
‫ﻗﯿﻤﺔ‬ ‫اﻟﺸﻜﻞﯾﺘﻢ‬
‫اﻟﺸﻜﻞﯾﺘﻢ‪ .9‬و‬
‫اﻟﺸﻜﻞ ‪ .9‬و‬
‫) !𝑏𝑏 ‪ℎ! = ∅(𝑊𝑊!! 𝑥𝑥! + 𝑊𝑊!! ℎ!!! +‬‬
‫𝑊𝑊(∅‪ℎ! =ℎ‬‬‫‪! =ℎ‬‬ ‫!!‬ ‫!! !𝑥𝑥‬
‫𝑊𝑊(∅‬
‫= !‬
‫‪+‬‬ ‫𝑊𝑊𝑥𝑥‬
‫𝑊𝑊(∅‬ ‫‪+‬‬ ‫𝑊𝑊‪ℎ‬‬
‫𝑥𝑥 !!‬
‫!! !‬ ‫!!!‬
‫!!!‬‫‪+ℎ+‬‬ ‫𝑊𝑊‬ ‫‪𝑏𝑏!ℎ‬‬
‫!!!‬
‫!!‬
‫!!! )‬
‫‪+‬‬ ‫) !𝑏𝑏 ‪𝑏𝑏! )+‬‬
‫ﺣﯿﺚ !‪ ℎ‬ﺗﺄﺧﺬ ﻗﯿﻤﺔ اﻟﻤﺪﺧﻼت ﻣﻀﺮوﺑﺔ ﺑﺎﻷوزان اﻟﺨﺎﺻﺔ ﺑﮭﺎ‪ ،‬وﻗﯿﻤﺔ !!!‪ℎ‬‬
‫وﻗﯿﻤﺔ‪ℎ!!! ℎ‬‬
‫وقيمة‬
‫‪!!! ℎ‬‬ ‫ﺑﮭﺎ‪،‬‬
‫اﻟﺨﺎﺻﺔهبا‪،‬‬
‫وﻗﯿﻤﺔ‬
‫!!!‬ ‫اخلاصة‬
‫ﺑﮭﺎ‪،‬‬
‫وﻗﯿﻤﺔ‬ ‫ﺑﺎﻷوزان‬
‫باألوزان‬
‫اﻟﺨﺎﺻﺔ‬
‫ﺑﮭﺎ‪،‬‬ ‫ﻣﻀﺮوﺑﺔ‬
‫ﺑﺎﻷوزان‬
‫اﻟﺨﺎﺻﺔ‬ ‫مرضوبة‬ ‫اﻟﻤﺪﺧﻼت‬
‫ﻣﻀﺮوﺑﺔ‬
‫ﺑﺎﻷوزان‬ ‫املدخالت‬
‫اﻟﻤﺪﺧﻼت‬
‫ﻣﻀﺮوﺑﺔ‬ ‫اﻟﻤﺪﺧﻼتﻗﯿﻤﺔ‬
‫ﺗﺄﺧﺬ‬
‫قيمة‬
‫تأخذﻗﯿﻤﺔ‬
‫ﺗﺄﺧﺬ‪ℎ‬‬‫ﺣﯿﺚ‬
‫ﻗﯿﻤﺔ !‬ ‫حيث‬
‫ﺣﯿﺚ !‬
‫ﺗﺄﺧﺬ‪ℎ‬‬ ‫ﺣﯿﺚ !‪ℎ‬‬
‫ﻣﻀﺮوﺑﺔ ﺑﺎﻷوزان اﻟﺨﺎﺻﺔ ﺑﮭﺎ‪ ،‬و 𝑡𝑡 ﺗﺸﯿﺮ إﻟﻰ اﻟﺘﺮﺗﯿﺐ‪.‬‬
‫اﻟﺘﺮﺗﯿﺐ‪.‬‬
‫اﻟﺘﺮﺗﯿﺐ‪.‬‬ ‫الرتتيب‪.‬‬
‫اﻟﺘﺮﺗﯿﺐ‪ .‬إﻟﻰ‬
‫ﺗﺸﯿﺮ‬ ‫إىل‪،‬‬
‫إﻟﻰ و‬
‫ﺗﺸﯿﺮ𝑡𝑡 إﻟﻰ‬ ‫اﻟﺨﺎﺻﺔوو𝑡𝑡ﺑﮭﺎ‪،‬‬
‫تشري𝑡𝑡ﺑﮭﺎ‬
‫اﻟﺨﺎﺻﺔو‬
‫ﺗﺸﯿﺮ‬ ‫هبا‪،‬‬
‫اخلاصةﺑﮭﺎ‬
‫ﺑﺎﻷوزان‪،‬‬ ‫باألوزان‬
‫ﻣﻀﺮوﺑﺔ‬
‫ﺑﺎﻷوزان‬
‫اﻟﺨﺎﺻﺔ‬ ‫ﻣﻀﺮوﺑﺔ‬
‫ﺑﺎﻷوزان‬ ‫مرضوبة‬
‫ﻣﻀﺮوﺑﺔ‬
‫ﻣﻦ اﻟﻤﺸﺎﻛﻞ اﻟﺘﻲ ﺗﻮاﺟﮭﮭﺎ ھﺬه اﻟﺸﺒﻜﺎت ھﻲ ﺗﻼﺷﻲ اﻟﻤﺸﺘﻘﺔ ) ‪vanishing‬‬
‫‪vanishing‬‬
‫‪vanishing‬‬‫اﻟﻤﺸﺘﻘﺔ )‬
‫‪vanishing‬‬ ‫ﺗﻼﺷﻲ‬
‫اﻟﻤﺸﺘﻘﺔ )‬ ‫اﻟﺸﺒﻜﺎت ھﻲ‬
‫ﺗﻼﺷﻲ‬
‫اﻟﻤﺸﺘﻘﺔ )‬ ‫اﻟﺸﺒﻜﺎت ھﻲ‬
‫ﺗﻼﺷﻲ‬ ‫ھﻲ‬‫اﻟﺸﺒﻜﺎتھﺬه‬
‫ﺗﻮاﺟﮭﮭﺎ‬
‫ﺗﻮاﺟﮭﮭﺎ ھﺬه‬ ‫ﺗﻮاﺟﮭﮭﺎاﻟﺘﻲ‬
‫ھﺬه‬ ‫اﻟﻤﺸﺎﻛﻞ‬
‫اﻟﻤﺸﺎﻛﻞ اﻟﺘﻲ‬‫اﻟﻤﺸﺎﻛﻞ ﻣﻦ‬
‫اﻟﺘﻲ‬ ‫ﻣﻦ ﻣﻦ‬
‫‪ (gradient‬واﻧﻔﺠﺎر اﻟﻤﺸﺘﻘﺔ )‪ (exploding gradient‬ﻓﻲ اﻟﺴﻼﺳﻞ اﻟﻄﻮﯾﻠﺔ‪.‬‬
‫اﻟﻄﻮﯾﻠﺔ‪.‬‬ ‫اﻟﺴﻼﺳﻞ‬
‫اﻟﻄﻮﯾﻠﺔ‪.‬‬ ‫اﻟﺴﻼﺳﻞ ﻓﻲ‬
‫اﻟﺴﻼﺳﻞ‬
‫اﻟﻄﻮﯾﻠﺔ‪.‬‬ ‫‪(exploding‬‬
‫‪ (exploding‬ﻓﻲ‬ ‫‪gradient‬‬
‫‪ (exploding‬ﻓﻲ‬ ‫‪-58-‬‬ ‫‪) gradient‬‬
‫‪gradient‬‬ ‫اﻟﻤﺸﺘﻘﺔ‬ ‫واﻧﻔﺠﺎر‬
‫اﻟﻤﺸﺘﻘﺔ )‬ ‫‪(gradient‬‬
‫واﻧﻔﺠﺎر‬
‫اﻟﻤﺸﺘﻘﺔ )‬ ‫‪(gradient‬‬
‫واﻧﻔﺠﺎر‬ ‫‪(gradient‬‬
‫وﻗﺪ ﺗﻢ اﻗﺘﺮاح ﻋﺪة ﺧﻮارزﻣﯿﺎت ﻟﺤﻠﮭﺎ أﺷﮭﺮھﺎ ‪ LSTM‬و‪ ،GRU‬وﺳﯿﺘﻢ ﺷﺮﺣﮭﻤﺎ‬
‫ﺷﺮﺣﮭﻤﺎ‬ ‫وﺳﯿﺘﻢ‬
‫ﺷﺮﺣﮭﻤﺎ‬ ‫وﺳﯿﺘﻢ‪،GRU‬‬
‫وﺳﯿﺘﻢ‬
‫ﺷﺮﺣﮭﻤﺎ‬ ‫‪ LSTM‬و‬
‫‪،GRU‬‬ ‫‪ LSTM‬و‬
‫‪،GRU‬‬ ‫أﺷﮭﺮھﺎ‬
‫‪ LSTM‬و‬ ‫أﺷﮭﺮھﺎﻟﺤﻠﮭﺎ‬
‫أﺷﮭﺮھﺎ‬ ‫ﺧﻮارزﻣﯿﺎت‬ ‫ﻋﺪة ﻟﺤﻠﮭﺎ‬
‫ﺧﻮارزﻣﯿﺎت ﻟﺤﻠﮭﺎ‬ ‫اﻗﺘﺮاح‬ ‫ﻋﺪةﺗﻢ‬
‫اﻗﺘﺮاح ﻋﺪة‬
‫ﺧﻮارزﻣﯿﺎت‬ ‫اﻗﺘﺮاحوﻗﺪ‬
‫وﻗﺪ ﺗﻢ وﻗﺪ ﺗﻢ‬
‫من املشاكل التي تواجهها هذه الشبكات هي تاليش املشتقة (‪)vanishing gradient‬‬
‫وانفجار املشتقة (‪ )exploding gradient‬يف السالسل الطويلة‪ .‬وقد تم اقرتاح عدة‬
‫خوارزميات حللها أشهرها ‪ LSTM‬و‪ ،GRU‬وسيتم رشحهام اآلن‪.‬‬

‫الشكل ‪ :9‬شبكة عصبية تكرارية‬

‫‪)Long‬‬ ‫‪Short-Term‬‬
‫‪،(1997‬‬ ‫()‪ (LSTM‬و‪Memory‬‬
‫‪،Schmidhuber‬‬ ‫املطولة‬
‫‪Hochreiter‬‬ ‫قصرية املدى‬
‫‪1997‬م )‬ ‫)‪ 5.3.1‬الذاكرة‬
‫‪ (Schmidhuber‬ﻋﺎم‬
‫هلوترشيرت‬
‫بحث‪LSTM‬‬ ‫‪ )LSTM‬يف‬
‫ذﻟﻚ‪ .‬ﺗﺤﻞ‬ ‫اﻟﻤﺨﺘﻠﻔﺔ( ﻟﮭﺎ ﺑﻌﺪ‬
‫واﻷﻧﻮاع املطولة‬
‫قصرية املدى‬ ‫الذاكرة‬
‫اﻟﺘﺤﺴﯿﻨﺎت‬ ‫خوارزمية ﻣﻦ‬ ‫تم ﺗﻢنرش‬
‫اﻗﺘﺮاح اﻟﻌﺪﯾﺪ‬ ‫وﻗﺪ‬
‫اﻟﻤﺸﺘﻘﺎت و‬
‫‪Hochreiter‬‬ ‫اﻟﺘﻐﯿﺮ( ﻓﻲ‬
‫‪1997‬م‬‫ﻣﻦ ﺣﺪة‬ ‫‪)Schmidhuber‬ﺗﻘﻠﻞعام‬
‫ﺷﺒﻜﺎت( ‪ RNN‬ﺑﺤﯿﺚ‬ ‫وشميدهوبر‬ ‫‪)Hochreiter‬‬
‫اﻟﺘﻲ ﺗﻮاﺟﮭﮭﺎ‬ ‫( اﻟﻤﺸﺎﻛﻞ‬
‫ﻗﺼﯿﺮة هلا‬
‫اﻟﺬاﻛﺮة‪،‬املختلفة‬
‫التحسيناتﻣﻦواألنواع‬ ‫‪ ،)1997 ،Schmidhuber‬وقد تم اقرتاح العديد من‬
‫ﻣﻘﺎرﻧﺔ ﺑـ ‪ ،RNN‬ﻛﻤﺎ أﻧﮭﺎ ﻣﺼﻤﻤﺔ ﺑﺤﯿﺚ ﯾﻜﻮن ﻟﺪﯾﮭﺎ ﻧﻮﻋﯿﻦ‬
‫بعد ذلك‪ .‬حتل ‪ LSTM‬املشاكل التي تواجهها شبكات ‪ RNN‬بحيث تقلل من حدة التغري‬
‫اﻟﻤﺪى وطﻮﯾﻠﺔ اﻟﻤﺪى‪ .‬اﻟﻔﺎرق اﻷﺳﺎﺳﻲ ﻓﻲ ‪ LSTM‬ھﻲ آﻟﯿﺔ اﻟﺘﺬﻛﺮ واﻟﻨﺴﯿﺎن‪ ،‬وﻗﺪ‬
‫يف املشتقات مقارنة بـ ‪ ،RNN‬كام أهنا مصممة بحيث يكون لدهيا نوعني من الذاكرة‪،‬‬
‫ﺗﻢ ﺗﺼﻤﯿﻢ اﻟﺸﺒﻜﺔ ﻋﻦ طﺮﯾﻖ اﺳﺘﺒﺪال اﻟﻄﺒﻘﺎت اﻟﺒﺴﯿﻄﺔ ﺑﺄﺧﺮى أﻛﺜﺮ ﺗﻌﻘﯿﺪاً ﺗﺘﻜﻮن‬
‫قصرية املدى وطويلة املدى‪ .‬الفارق األسايس يف ‪ LSTM‬هي آلية التذكر والنسيان‪ ،‬وقد‬
‫ﻣﻦ ﻋﺪة ﺑﻮاﺑﺎت‪ ،‬ﯾﻄﻠﻖ ﻋﻠﻰ ھﺬا اﻟﻨﻮع ﻣﻦ اﻟﻄﺒﻘﺎت ﺧﻠﯿﺔ )‪ ،(cell‬اﻟﺸﻜﻞ ‪10‬‬
‫تم تصميم الشبكة عن طريق استبدال الطبقات البسيطة بأخرى أكثر تعقيد ًا تتكون من‬
‫شكل‬ ‫ﺑﻮاﺑﺔ‬
‫يوضح‬‫اﻟﺒﻮاﺑﺎت‪:‬‬ ‫أﻧﻮاع ﻣﻦ‬
‫الشكل ‪10‬‬ ‫خلية (ﺛﻼﺛﺔ‬
‫‪،)cell‬‬ ‫‪ LSTM‬ﻋﻠﻰ‬
‫ﺗﺤﺘﻮي الطبقات‬
‫‪.LSTM‬النوع من‬
‫ﺧﻠﯿﺔ عىل هذا‬
‫ﺷﻜﻞيطلق‬ ‫ﯾﻮﺿﺢ‬
‫بوابات‪،‬‬ ‫عدة‬
‫‪output‬‬
‫‪،)input‬‬ ‫إﺧﺮاج( )‪gate‬‬
‫وﺑﻮاﺑﺔ إدخال‬ ‫‪gate‬من‪،(forget‬‬
‫البوابات‪ :‬بوابة‬ ‫ثالثة)أنواع‬
‫ﺑﻮاﺑﺔعىلﻧﺴﯿﺎن‬
‫‪LSTM‬‬‫‪،(input‬‬
‫‪gate‬حتتوي‬
‫‪.LSTM‬‬‫إدﺧﺎل )‬
‫خلية‬
‫الذاكرة‬
‫واﻟﻤﺨﺮﺟﺎت‪/‬أومناﻟﺤﺎﻟﺔ‬
‫‪(cell‬ويتم حساب كل‬ ‫‪.)output‬‬
‫)‪state‬‬ ‫إخراج (‬
‫)‪gate(c‬‬ ‫وبوابةاﻟﺬاﻛﺮة‬
‫‪forget‬ﻛﻞ)‪ ،‬ﻣﻦ‬
‫ﺣﺴﺎب‬ ‫نسيان (‬
‫وﯾﺘﻢ‬
‫‪gate‬‬ ‫بوابة‬
‫‪.(gate‬‬
‫واملخرجات‪/‬أو احلالة )‪ (hidden state) (h‬كالتايل‪:‬‬
‫‪ (hidden‬ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫‪(cell‬‬
‫)‪state‬‬ ‫)‪) (c‬‬
‫)‪state(h‬‬
‫!𝑏𝑏 ‪𝑓𝑓! = 𝜎𝜎 𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫) !𝑏𝑏 ‪𝑖𝑖! = 𝜎𝜎(𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫) !𝑏𝑏 ‪𝑜𝑜! = 𝜎𝜎(𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫) !𝑏𝑏 ‪𝑐𝑐! = 𝑓𝑓! ⨀𝑐𝑐!!! + 𝑖𝑖! ⨀tanh(𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫) !𝑐𝑐(‪ℎ! = 𝑜𝑜! ⨀𝑡𝑡𝑡𝑡𝑡𝑡ℎ‬‬

‫‪-59-‬‬
‫ﺣﯿﺚ !𝑥𝑥 اﻟﻤﺪﺧﻼت‪ 𝑓𝑓! ،‬و !𝑖𝑖 و‬
‫واإلخراج‬
‫اﻟﺘﻮاﻟﻲ‪ 𝜎𝜎 ،‬داﻟﺔ اﻟﺘﻔﻌﯿﻞ ﺳ‬ ‫ﻋﻠﻰ‬ ‫واإلدخال‬
‫واﻹﺧﺮاج‬ ‫النسيان‬
‫واﻹدﺧﺎل‬ ‫بوابات‬
‫اﻟﻨﺴﯿﺎن‬ ‫متجهات‬
‫ﺑﻮاﺑﺎت‬ ‫املدخالت‪،‬و !‪ 𝑖𝑖f‬وو !‪𝑜𝑜i‬و ‪o‬‬
‫ﻣﺘﺠﮭﺎت‬ ‫حيث ‪x‬‬
‫اﻟﻤﺪﺧﻼت‪𝑓𝑓! ،‬‬
‫‪t‬‬ ‫‪t‬‬ ‫‪t‬‬
‫ﺣﯿﺚ !𝑥𝑥‬ ‫‪t‬‬
‫السابق‬
‫ذﻛﺮھﺎ واﻟﻤﺪﺧﻼت واﻟﺬاﻛﺮ‬ ‫ﻣﻦالبوابات‬
‫اﻟﺴﺎﺑﻖ‬
‫اﻟﺒﻮاﺑﺎت‬ ‫ﻟﻜﻞمن‬ ‫‪W‬وو‪𝑈𝑈U‬وو‪𝑏𝑏b‬األوزان‬
‫اﻷوزانلكل‬ ‫سيجمويد‪𝑊𝑊،‬‬
‫التفعيل ﺳﯿﺠﻤﻮﯾﺪ‪،‬‬
‫دالة اﻟﺘﻔﻌﯿﻞ‬
‫التوايل‪ 𝜎𝜎 ،‬داﻟﺔ‬
‫عىلاﻟﺘﻮاﻟﻲ‪،‬‬
‫ﻋﻠﻰ‬
‫ﺗﺮﻣﺰ ﻟﻀﺮب ﻣﻜﻮﻧﺎت اﻟﻤﺼ‬ ‫اخلطوات‪ ،‬وو‬
‫اﻟﺨﻄﻮات‪ ⊙،‬ترمز‬ ‫الزمن أو‬
‫اﻟﺰﻣﻦ أو‬ ‫وحدةوﺣﺪة‬ ‫السابقة‪ ،‬و‪t‬‬
‫اﻟﺴﺎﺑﻘﺔ‪ ،‬و 𝑡𝑡‬ ‫واحلالة‬
‫واﻟﺤﺎﻟﺔ‬ ‫والذاكرة‬
‫واﻟﺬاﻛﺮة‬ ‫واملدخالت‬
‫واﻟﻤﺪﺧﻼت‬ ‫ذكرهاذﻛﺮھﺎ‬
‫اﻟﺴﺎﺑﻖ‬
‫ﺷﻜﻞ ‪ :10‬ﺧﻠﯿﺔ اﻟﺬ‬ ‫لرضب مكونات املصفوفات (‪.)element-wise multiplication‬‬
‫و ⊙ ﺗﺮﻣﺰ ﻟﻀﺮب ﻣﻜﻮﻧﺎت اﻟﻤﺼﻔﻮﻓﺎت )‪.(element-wise multiplication‬‬
‫ﺷﻜﻞ ‪ :10‬ﺧﻠﯿﺔ اﻟﺬاﻛﺮة ﻗﺼﯿﺮة اﻟﻤﺪى اﻟﻤﻄﻮﻟﺔ )‪(LSTM‬‬

‫الشكل ‪ :10‬خلية الذاكرة قصرية املدى املطولة (‪)LSTM‬‬


‫اﻟﻮﺣﺪة اﻟﺘﻜﺮا‬ ‫‪5.3.2‬‬
‫)‪(Unit (GRU‬‬
‫الوحدة التكرارية ا ُمل َب َّوبة ()‪Recurrent Unit (GRU‬‬
‫اﻟﺘﻜﺮارﯾﺔ َ اﻟﻤﺒﻮﺑﺔ ) ‪Gated Recurrent‬‬
‫‪)Gated‬‬ ‫اﻟﻮﺣﺪة‬
‫‪٥٫3٫٢‬‬
‫‪5.3.2‬‬
‫ُ َﱠَ‬
‫أﺣﺪ اﻟﺨﻮارزﻣﯿﺎت اﻟﻤﺸﺘﻘﺔ ﻣﻦ ‪M‬‬ ‫)‪(Unit (GRU‬‬
‫اخلوارزميات املشتقة من ‪ LSTM‬هي الوحدة التكرارية املبوبة (‪)GRU‬‬ ‫أحد‬
‫‪anau ،Merrienboer ،Cho‬‬ ‫)‬
‫‪(GRU‬من عدة‬ ‫اﻟﻤﺒﻮﺑﺔ )‬
‫تبسيط ًا هلا‬ ‫اﻟﺘﻜﺮارﯾﺔ وتعد‬
‫اﻟﻮﺣﺪة‪،)2014 ،‬‬
‫‪Bengio‬‬ ‫‪ LSTM‬وھﻲ‬
‫‪،Bahdanau‬‬ ‫اﻟﻤﺸﺘﻘﺔ ﻣﻦ‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬
‫‪،Merrienboer‬‬ ‫أﺣﺪ‪،Cho‬‬ ‫(‬
‫ً‬
‫ﺟﮭﺎت‪ .‬ﻓﻤﺜﻼ ﻓﻲ ‪GRU‬‬ ‫اسمهاﻋﺪة‬
‫ﻟﮭﺎ‬‫واحدةﻄﺎ ًﻣﻦ‬
‫وﺗﻌﺪ ﺗﺒﺴﯿ‬
‫بوابة‬ ‫إىل(‪،‬بوابة‬
‫‪2014‬‬ ‫‪،Bengio‬‬
‫والنسيان‬ ‫بوابتي واإلدخال‬
‫‪،Bahdanau‬‬
‫‪ ،GRU‬تم دمج‬ ‫‪Merrienboer‬‬
‫جهات‪ .‬فمث ً‬
‫ال يف‬ ‫)‪،Cho‬‬
‫ﺑﻮاﺑﺔ اﻟﺘﺤﺪﯾﺚ )‪te gate‬‬
‫اﺳﻤﮭﺎ ‪cell‬‬
‫واﺣﺪة‬
‫‪and‬‬ ‫اخللية (‬
‫وحالة ﺑﻮاﺑﺔ‬ ‫اﻹدﺧﺎل اخللية‬
‫واﻟﻨﺴﯿﺎن إﻟﻰ‬ ‫خلية ذاكرة‬
‫ﺑﻮاﺑﺘﻲ‬‫‪GRU‬كامﺗﻢتمدﻣﺞدمج‬ ‫ﻓﻤﺜﻼً ﻓﻲ‬
‫‪،)update‬‬ ‫‪gate‬‬ ‫التحديث (‬
‫ﺟﮭﺎت‪.‬‬ ‫ﻣﻦ ﻋﺪة‬
‫أبسط)من‬
‫‪l and hidden states‬‬ ‫اﻟﺨﻠﯿﺔ‬
‫وﺣﺎﻟﺔ‬‫اﻟﺨﻠﯿﺔفإهنا‬
‫ذاﻛﺮةواضح‬ ‫ﺧﻠﯿﺔكام هو‬
‫‪.GRU‬‬‫خليةدﻣﺞ‬ ‫‪،(update‬شكل‬
‫ﻛﻤﺎ ﺗﻢ‬ ‫‪ 11gate‬يوضح‬ ‫الشكل‬ ‫‪.)hidden‬‬
‫اﻟﺘﺤﺪﯾﺚ )‬ ‫‪states‬ﺑﻮاﺑﺔ‬
‫اﺳﻤﮭﺎ‬
‫اﻟﻤﻌﺎدﻻت‬ ‫ﻟﻜﻔﺎءﺗﮭﺎ‪.‬‬ ‫ً‬ ‫ﻛﺒﯿﺮ ﻧﻈﺮا‬ ‫ﺗﺒﻨﯿﮭﺎوﺑﺸﻜﻞ‬ ‫أدى إﻟﻰ‬ ‫فإنﻣﻤﺎ‬‫ً‬
‫ﻣﺘﻘﺎرب ﺟﺪا‪،‬‬ ‫و‪LSTM‬‬
‫تبنيها‬
‫واﺿﺢ ﻓﺈﻧﮭﺎ أﺑﺴﻂ ﻣﻦ ﺧﻠ‬ ‫ﻛﻤﺎإىل‬
‫أدىھﻮ‬‫‪.GRU‬‬‫جد ًا‪ ،‬مما‬ ‫متقارب‬
‫ﺧﻠﯿﺔ‬ ‫‪LSTM‬‬
‫ﯾﻮﺿﺢ ﺷﻜﻞ‬ ‫‪11GRU‬‬ ‫‪.(cell‬بنياﻟﺸﻜﻞ‬
‫األداء‬ ‫هذا ‪and‬‬ ‫‪ ،LSTM‬ومع‬
‫‪hidden‬‬ ‫خلية)‪states‬‬ ‫اﻟﺨﻠﯿﺔ‬
‫نظر ًا أﺑﺴﻂ ﻣﻦ‬
‫املخرجات‪:‬‬ ‫حساب‬ ‫وﻣﻊكيفية‬ ‫اﻟﻤﺨﺮﺟﺎت‪:‬‬
‫التالية‪ ،‬تبني‬ ‫املعادالت‬ ‫ﺣﺴﺎب‬ ‫ﻛﯿﻔﯿﺔ‬ ‫ﺗﺒﯿﻦ‬ ‫اﻟﺘﺎﻟﯿﺔ‬
‫‪GRU‬‬ ‫اﻷداء ﺑﯿﻦ‬ ‫ھﺬا ﻓﺈن‬ ‫‪LSTM‬‬ ‫لكفاءهتا‪ .‬ﺧﻠﯿﺔ‬ ‫كبريﻓﺈﻧﮭﺎ‬ ‫ھﻮبشكل‬
‫واﺿﺢ‬
‫!𝑏𝑏 ‪𝑧𝑧! = 𝜎𝜎 𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫) !𝑏𝑏 ‪𝑟𝑟! = 𝜎𝜎(𝑊𝑊! 𝑥𝑥! + 𝑈𝑈! ℎ!!! +‬‬
‫𝑊𝑊(‪ℎ! = (1 − 𝑧𝑧! )⨀ℎ!!! + 𝑧𝑧! ⨀tanh‬‬
‫‪65‬‬
‫) !!!‪! 𝑥𝑥! + 𝑈𝑈! (𝑟𝑟! ⨀ℎ‬‬

‫) !𝑏𝑏 ‪+‬‬
‫ﺣﯿﺚ !𝑧𝑧 ﻣﺘﺠﮫ ﺑﻮاﺑﺔ اﻟﺘﺤﺪﯾﺚ )‪ ،(update gate‬و !𝑟𝑟 ﻣﺘﺠﮫ ﺑﻮاﺑﺔ إﻋﺎدة اﻟﺘﻌﯿﯿﻦ‬
‫‪-60-‬‬ ‫)‪.(reset gate‬‬
‫حيث ‪ zt‬متجه بوابة التحديث (‪ ،)update gate‬و ‪ rt‬متجه بوابة إعادة التعيني (‪reset‬‬
‫‪.)gate‬‬

‫الشكل ‪ :11‬خلية الوحدة التكرارية ا ُمل َب َّو َبة (‪)GRU‬‬

‫‪ -٦‬تطبيقات التعلم العميق يف معاجلة اللغة‬


‫تتنوع فروع معاجلة اللغات الطبيعية ()‪ )Natural Language Processing (NLP‬إىل‬
‫العديد من املجاالت والتطبيقات‪ ،‬ويرجع العمل عليها للعديد من العقود‪ .‬سيكون‬
‫الرتكيز يف هذا الفصل عىل كيفية تطبيق التعلم العميق يف هذه املجاالت‪ .‬وبام أن‬
‫العرشات واملئات من األبحاث قد نرشت لكل من هذه املجاالت‪ ،‬فليس املجال هنا‬
‫احلرص‪ ،‬ولكن إلعطاء فكرة عن املجاالت املختلفة وكيفية استخدام التعلم العميق‬
‫فيها‪ ،‬وسيتم رشح كل جمال وذكر مثال حلله باستخدام التعلم العميق‪.‬‬

‫‪ ٦٫١‬تضمني الكلامت (‪)Words Embeddings‬‬


‫تضمني الكلامت هو متثيل للكلامت عىل شكل متجهات (‪ )vectors‬حمافظة لرتابط‬
‫الدالالت‪ .‬من فوائد تضمني الكلامت أن طول املتجه الذي يمثل الكلامت أقل بكثري‬
‫ال بعض التمثيالت التي كانت تستخدم مثل ‪One‬‬ ‫من عدد الكلامت املستخدمة‪ .‬فمث ً‬
‫‪ Hot Encoding‬إذا كان لدينا ‪ 50‬ألف كلمة فسيتم متثيل كل كلمة بمتجه طوله ‪50‬‬
‫ألف‪ ،‬بحيث يكون كله أصفار ما عدا مكان الكلمة يكون واحد‪ .‬بينام الكلامت املضمنة‬

‫‪-61-‬‬
‫يتم متثيلها بمتجه طوله غالب ًا بني ‪ 100‬و‪ ،300‬ومكون من أرقام يتم تعلمها‪ .‬إحدى‬
‫خصائص هذه اخلوارزميات هي املحافظة عىل املعنى الداليل للكلامت‪ ،‬بحيث تكون‬
‫الكلامت املتقاربة يف املعنى قريبة من بعضها يف فضاء املتجهات‪.‬‬
‫هناك عدة خوارزميات لتضمني الكلامت‪ ،‬أشهرها ‪،Mikolov( word2vec‬‬
‫‪ ،Corrado ،Chen ،Sutskever‬و ‪،Socher ،Pennington( Glove ،)2013 ،Dean‬‬
‫و ‪ ،)2014 ،Manning‬و‪ ،Joulin ،Grave ،Bojanowski( fasttext‬و ‪،Mikolov‬‬
‫‪ .)2017‬هناك طريقتان لتعلم التضمني يف ‪ ،word2vec‬إما باستخدام ‪continuous‬‬
‫)‪ ،bag of words (CBOW‬أو ‪ .skip-gram‬اهلدف يف ‪ CBOW‬هو تعلم الكلامت‬
‫املناسبة من السياق (‪ ،)context‬بينام يف ‪ skip-gram‬هو تعلم السياق من الكلامت‪.‬‬
‫الشكل ‪ 12‬يوضح ك ً‬
‫ال من الطريقتني‪.‬‬

‫الشكل ‪ :12‬شبكتا تضمني الكلامت باستخدام ‪ CBOW‬و ‪skip-gram‬‬

‫‪ ٦٫2‬التعرف عىل املشاعر (‪)Sentiment Analysis‬‬


‫كثري ًا ما حتتاج اجلهات أن تعرف مشاعر العمالء عن اخلدمات واملنتجات التي تقدمها‪،‬‬
‫إحدى الطرق التي انترش استخدامها مؤخر ًا استخدام خوارزميات التعرف عىل املشاعر‬
‫لتحليل النصوص وحماولة معرفة مشاعر الكاتب‪ .‬يمكن تصنيف املشاعر إىل ثالث‬
‫أو مخس فئات‪ ،‬أو غريها من التصنيفات‪ .‬ويمكن تدريب نامذج التعرف عىل املشاعر‬
‫لتعمل عىل النص كامالً‪ ،‬أو عىل الفقرات كل عىل حدة‪.‬‬
‫غالب الطرق التي تستخدم التعلم العميق تبدأ بتحويل النص إىل متثيل الكلامت املضمنة‬
‫الذي تم رشحه قبل قليل‪ .‬وألن السياق وأخذ اجلمل كاملة يف االعتبار مهم فالكثري‬
‫يستخدم أحد األشكال املختلفة من معامرية ‪ ،RNN‬كـ ‪ LSTM‬أو ‪.GRU‬‬

‫‪-62-‬‬
‫‪ ٦٫3‬الرتمجة اآللية (‪)Machine Translation‬‬
‫الرتمجة من لغة إىل أخرى آلي ًا جمال خصب لألبحاث‪ ،‬وقد خرجت العديد من األبحاث‬
‫واخلوارزميات التي تستخدم التعلم العميق لتعلم الرتمجات‪ .‬موقع ترمجة قوقل بدأ‬
‫باستخدام التعلم العميق من عام ‪2016‬م‪.‬‬
‫يتم يف الرتمجة اآللية (والتعرف عىل الكالم والتلخيص اآليل كام سيأيت) إدخال سلسلة‬
‫من املدخالت وإخراج سلسلة من املخرجات‪ ،‬يطلق عىل الشبكات التي تستخدم‬
‫هلذا النوع من التطبيقات )‪،Sutskever( Sequence-to-Sequence (Seq2Seq‬‬
‫‪ ،Vinyals‬و ‪ ،)2014 ،Le‬وفيها يتم استخدام شبكتني من نوع ‪ RNN‬بحيث يتم ترميز‬
‫السلسة األوىل (‪ )encoder‬وفك الرتميز للشكل املستهدف (‪ .)decoder‬يف الرتمجة‬
‫اآللية تكون السلسلة األوىل اللغة املصدر والسلسلة الثانية اللغة املستهدفة‪ .‬الشكل ‪13‬‬
‫يوضح شبكة ‪ Seq2Seq‬للرتمجة اآللية‪ ،‬ويطلق عليها أيض ًا ‪.encoder-decoder‬‬

‫الشكل ‪ :13‬مثال لشبكة ترمجة آلية‬

‫‪ ٦٫4‬التعرف عىل الكالم (‪)Speech Recognition‬‬


‫حتويل الكالم املنطوق من موجات صوتية إىل نص مكتوب يستخدم اآلن يف العديد‬
‫من التطبيقات كاملساعدات الشخصية وحتويل الكالم املسجل إىل نصوص‪ .‬وقد‬
‫كان االعتامد سابق ًا بشكل كبري عىل خوارزميات ‪ ،HMM‬ولكن يف اآلونة األخرية تم‬
‫تبني التعلم العميق بشكل أسايس‪ ،‬حيث تستخدمه اآلن كربى الرشكات يف منتجاهتا‬
‫للتعرف عىل الكالم‪ .‬أحد اخلوارزميات املشهورة هي ‪،Amodei( DeepSpeech‬‬
‫وآخرون‪ )2016 ،‬املوضحة يف الشكل ‪ .14‬يف البداية يتم حتويل املقطع الصويت إىل‬

‫‪-63-‬‬
‫الطيفية (‪- )spectogram‬وهو متثيل للرتدد عرب الزمن‪ -‬ثم استخدام عدة طبقات من‬
‫الشبكات العصبية الرتشيحية‪ ،‬متبوعة بطبقات من نوع ‪ ،RNN‬ثم طبقة تامة االتصال‪.‬‬
‫الطبقة األخرية املستخدمة تدعى ‪Connectionist Temporal Classification‬‬
‫)‪ ،Gomez ،Fernández ،Graves( (CTC‬و ‪ )2006 ،Schmidhuber‬وفيها يتم‬
‫اختيار املخرجات األعىل احتامالً‪.‬‬

‫الشكل ‪ :14‬شبكة ‪ Deep Speech‬للتعرف عىل الكالم‬

‫‪ ٦٫5‬حتويل الصور إىل نصوص (‪)Optical Character Recognition‬‬


‫من التطبيقات املهمة حتويل النصوص املطبوعة أو املكتوبة يدوي ًا إىل نص قابل للتعديل‬
‫عىل احلاسب‪ .‬وهلذا املجال العديد من التطبيقات‪ ،‬كالفرز اآليل للطرود‪ ،‬قراءة أرقام‬
‫الشيكات‪ ،‬وقراءة أرقام لوحات السيارات‪.‬‬

‫الشكل ‪ :15‬مثال لشبكة لتحويل الصور إىل نصوص‬


‫بالرغم من االختالف الظاهري بني مشكلتي التعرف عىل الكالم والتعرف عىل الكتابة‬
‫يف الصور‪ ،‬فإن فكرة معامرية شبكة التعلم العميق مشاهبة جد ًا للتي تم رشحها للتعرف‬
‫عىل الكالم كام هو موضح يف الشكل ‪ .15‬ففي البداية يتم استخدام الشبكات العصبية‬
‫الرتشيحية‪ ،‬متبوعة بطبقات من نوع ‪ ،RNN‬ثم طبقة تامة االتصال‪ ،‬ثم خوارزمية لفك‬
‫الرتميز مثل ‪ CTC‬التي تم رشحها يف خوارزمية التعرف عىل الكالم‪.‬‬

‫‪-64-‬‬
‫اﻟﻜﻼم‪ .‬اﻟﻜﻼم‪.‬‬ ‫اﻟﺘﻌﺮف ﻋﻠﻰ‬
‫اﻟﺘﻌﺮف ﻋﻠﻰ‬
‫اﻟﺘﻌﺮف ﻋﻠﻰ اﻟﻜﻼم‪.‬‬
‫‪(Speech‬‬
‫‪(Speech‬‬ ‫‪Synthesis‬‬
‫‪Synthesis‬‬ ‫اﻟﻜﻼم )‬
‫اﻟﻜﻼم )‬ ‫ﺗﻮﻟﯿﺪﺗﻮﻟﯿﺪ‬
‫‪6.6 6.6‬‬
‫‪ 6.6‬ﺗﻮﻟﯿﺪ اﻟﻜﻼم )‪(Speech Synthesis‬‬
‫اﻟﻨﺺ اﻟﻨﺺ‬
‫ﺗﺤﻮﯾﻞ ﺗﺤﻮﯾﻞ‬
‫اﻟﻜﻼم ھﻮ‬ ‫اﻟﻜﻼم ھﻮ‬ ‫اﻟﮭﺪفﺗﻮﻟﯿﺪ‬
‫ﻣﻦ ﺗﻮﻟﯿﺪ‬ ‫اﻟﮭﺪف ﻣﻦ‬
‫ﻧﺼﻮص‪،‬‬ ‫ﻧﺼﻮص‪،‬‬ ‫اﻟﻜﻼم إﻟﻰ‬‫اﻟﻜﻼم إﻟﻰ‬
‫ﺗﺤﻮﯾﻞ ﺗﺤﻮﯾﻞ‬
‫ﻋﻜﺲ ﻋﻜﺲ‬
‫ﺗﺤﻮﯾﻞ اﻟﻨﺺ‬ ‫اﻟﻜﻼم ھﻮ‬
‫اﻟﻔﻮﻧﯿﻤﺎت‬ ‫اﻟﺴﺎﺑﻖﻣﻦﯾﺘﻢﺗﻮﻟﯿﺪ‬
‫ﻧﺼﻮص‪ ،‬اﻟﮭﺪف‬ ‫اﻟﻜﻼم إﻟﻰ‬ ‫ﻋﻜﺲ ﺗﺤﻮﯾﻞ‬
‫اﻟﻔﻮﻧﯿﻤﺎت‬ ‫إﻟﺼﺎق إﻟﺼﺎق‬ ‫اﻟﺴﺎﺑﻖ ﯾﺘﻢ‬ ‫ﻣﻨﻄﻮق‪ .‬ﻓﻲﻛﺎن ﻓﻲ‬‫ﻣﻨﻄﻮق‪ .‬ﻛﺎن‬‫ﺻﻮﺗﻲ ﺻﻮﺗﻲ‬ ‫ﻣﻘﻄﻊ ﻣﻘﻄﻊ‬ ‫اﻟﻤﻜﺘﻮب إﻟﻰ‬
‫اﻟﻤﻜﺘﻮب إﻟﻰ‬
‫إﻟﺼﺎق اﻟﻔﻮﻧﯿﻤﺎت‬ ‫‪ )Speech‬ﻓﻲ‬ ‫‪Synthesis‬‬ ‫الكالم (‬ ‫اﻟﺼﻮﺗﯿﺔ(توليد‬
‫)اﻟﻮﺣﺪات ‪٦٫6‬‬
‫اﻟﻌﺪﯾﺪ ﻣﻦ‬ ‫اﺑﺘﻜﺎرﺗﻢﯾﺘﻢاﻟﻌﺪﯾﺪ‬
‫اﺑﺘﻜﺎر ﻣﻦ‬ ‫اﻟﺴﺎﺑﻖ‬
‫اﻷﺧﯿﺮة‬‫اﻷﺧﯿﺮة ﺗﻢ‬‫ﻣﻨﻄﻮق‪ .‬ﻛﺎن‬
‫اﻟﺴﻨﻮاتاﻟﺴﻨﻮات‬
‫وﻟﻜﻦ ﻓﻲ‬
‫اﻟﻜﻼم‪،‬ﺻﻮﺗﻲ‬
‫اﻟﻜﻼم‪،‬ﻓﻲ‬
‫وﻟﻜﻦ‬ ‫إﻟﻰ ﻣﻘﻄﻊ‬
‫ﻹﻧﺸﺎء ﻹﻧﺸﺎء‬
‫اﻟﺼﻮﺗﯿﺔ(‬
‫اﻟﻤﻜﺘﻮب‬
‫)اﻟﻮﺣﺪات‬
‫ﻣﻦإىل‬
‫املكتوب‬
‫النص اﻟﻌﺪﯾﺪ‬
‫اﺑﺘﻜﺎر‬‫حتويل‬
‫ﺗﻢ‬ ‫اﻷﺧﯿﺮة‬‫الكالم هو‬
‫اﻟﺴﻨﻮات‬‫توليد‬
‫ﻓﻲ‬‫من‬
‫وﻟﻜﻦ‬‫اهلدف‬ ‫نصوص‪،‬‬
‫اﻟﻜﻼم‪،‬‬ ‫ﻹﻧﺸﺎء‬ ‫اﻟﺼﻮﺗﯿﺔ(إىل‬
‫حتويل الكالم‬ ‫عكس‬
‫)اﻟﻮﺣﺪات‬
‫ﻟﻠﺼﻮت‬ ‫ﻟﻠﺼﻮت‬
‫ﻛﺒﯿﺮ‬ ‫ﻛﺒﯿﺮ‬
‫ﺑﺔ ﺑﺸﻜﻞ‬ ‫ﺑﺸﻜﻞ‬ ‫ﺑﺔ‬‫ﻣﻘﺎر‬
‫ﻧﺘﺎﺋﺞ ﻣﻘﺎر‬ ‫ﻧﺘﺎﺋﺞ‬
‫ﺗﻌﻄﻲ‬ ‫ﺗﻌﻄﻲ‬
‫اﻟﻌﻤﯿﻖ‬ ‫اﻟﻌﻤﯿﻖ‬
‫اﻟﺘﻌﻠﻢ‬ ‫اﻟﺘﻌﻠﻢ‬
‫ﺑﺎﺳﺘﺨﺪام‬‫ﺑﺎﺳﺘﺨﺪام‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬
‫اﻟﺨﻮارزﻣﯿﺎت‬
‫إلنشاء‬ ‫الصوتية)‬
‫ﻛﺒﯿﺮ ﻟﻠﺼﻮت‬
‫(الوحدات‬ ‫الفونيامت‬ ‫إلصاق‬ ‫يتم‬ ‫السابق‬ ‫يف‬ ‫كان‬ ‫منطوق‪.‬‬ ‫صويت‬ ‫مقطع‬
‫ﺑﺸﻜﻞ ھﻲ‬
‫اﻟﻌﻤﯿﻖ‬ ‫ﻣﻘﺎرﺑﺔ‬
‫ﻧﺘﺎﺋﺞاﻟﺘﻌﻠﻢ‬ ‫اﻟﻜﻼمﺗﻌﻄﻲ‬
‫ﺑﺎﺳﺘﺨﺪام‬ ‫ﻟﺘﻮﻟﯿﺪاﻟﻌﻤﯿﻖ‬
‫اﻟﻤﮭﻤﺔاﻟﺘﻌﻠﻢ‬
‫ﺑﺎﺳﺘﺨﺪام‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬
‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫اﻟﺒﺸﺮي‪ .‬ﻣﻦ‬
‫ولكن يف السنوات األخرية تم ابتكار العديد من اخلوارزميات باستخدام التعلم‬
‫ھﻲ‬ ‫اﻟﻌﻤﯿﻖ‬ ‫اﻟﺘﻌﻠﻢ‬ ‫ﺑﺎﺳﺘﺨﺪام‬ ‫اﻟﻜﻼم‬ ‫ﻟﺘﻮﻟﯿﺪ‬ ‫اﻟﻤﮭﻤﺔ‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫الكالم‪ ،‬ﻣﻦ‬
‫اﻟﺒﺸﺮي‪.‬‬
‫ﺧﻮارزﻣﯿﺔاﻟﻌﻤﯿﻖ ھﻲ‬
‫ﺑﺎﺳﺘﺨﺪام اﻟﺘﻌﻠﻢ‬ ‫اﻟﻜﻼم(‪،‬‬ ‫ﻟﺘﻮﻟﯿﺪ‬ ‫اﻟﻤﮭﻤﺔ‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫تعطيﻣﻦﻣﻦ‬‫ﺧﻮارزﻣﯿﺔ اﻟﺒﺸﺮي‪.‬‬
‫املهمة لتوليد‬
‫ﺧﻮارزﻣﯿﺔ‬ ‫وھﻲ‪ ،‬وھﻲ‬
‫اخلوارزميات‬ ‫‪2016‬‬
‫البرشي‪ .‬من‬
‫‪(2016‬‬ ‫وآﺧﺮون‪،‬‬
‫للصوت‬
‫وآﺧﺮون‪،‬‬ ‫بشكل)‪،‬كبري‬
‫‪،Oord‬‬ ‫‪Oord‬‬
‫مقاربة)ﻗﻮﻗﻞ‬
‫‪wavenet‬ﻗﻮﻗﻞ‬
‫ﻣﻦ‬ ‫نتائج‬ ‫‪wavenet‬‬‫العميق‬
‫ﺧﻮارزﻣﯿﺔ‬
‫ﺧﻮارزﻣﯿﺔ‬ ‫وھﻲ‬ ‫‪،‬‬ ‫(‬‫‪2016‬‬ ‫وآﺧﺮون‪،‬‬
‫اﻟﺘﺎﻟﯿﺔ‪:‬خوارزمية ‪ wavenet‬من قوقل (‪ ،Oord‬وآخرون‪،‬‬ ‫‪،‬‬‫‪Oord‬‬ ‫)‬ ‫ﻗﻮﻗﻞ‬ ‫ﻣﻦ‬
‫العميق هي‬ ‫‪wavenet‬‬
‫التعلم‬ ‫ﺧﻮارزﻣﯿﺔ‬
‫باستخدام‬
‫اﻟﺘﺎﻟﯿﺔ‪:‬‬
‫اﻟﻤﺸﺮوطﺔ‬ ‫اﻟﻤﺸﺮوطﺔ‬
‫اﻟﺘﻮزﯾﻌﺔ‬ ‫الكالمﺗﺘﻌﻠﻢ‬
‫اﻟﺘﻮزﯾﻌﺔ‬ ‫ﺗﻮﻟﯿﺪﯾﺔ ﺗﺘﻌﻠﻢ‬
‫ﺗﻮﻟﯿﺪﯾﺔ‬
‫التوزيعة املرشوطة التالية‪:‬‬ ‫اﻟﺘﺎﻟﯿﺔ‪:‬‬
‫اﻟﻤﺸﺮوطﺔتتعلم‬ ‫وهي اﻟﺘﻮزﯾﻌﺔ‬
‫خوارزمية توليدية‬ ‫‪ ،)2016‬ﺗﺘﻌﻠﻢ‬
‫ﺗﻮﻟﯿﺪﯾﺔ‬
‫𝑝𝑝 !𝑥𝑥 𝑝𝑝= 𝒙𝒙 =𝑝𝑝 𝒙𝒙 𝑝𝑝‬ ‫𝜽𝜽 ‪𝑥𝑥!!𝑥𝑥,!𝜽𝜽𝑥𝑥!! ,‬‬
‫= 𝒙𝒙 𝑝𝑝‬ ‫𝜽𝜽 ‪𝑝𝑝! 𝑥𝑥! 𝑥𝑥!!! ,‬‬
‫!‬
‫النموذج يتم‬‫هذااﻟﻨﻤﻮذج‬‫النموذج‪.‬ﻓﻲيفھﺬا‬
‫اﻟﻨﻤﻮذج‬ ‫ھﺬا‬ ‫‪)(parameters‬‬
‫اﻟﻨﻤﻮذج‪ .‬ﻓﻲ‬
‫اﻟﻨﻤﻮذج‪.‬‬ ‫مدخالت) (‬
‫‪(parameters‬‬
‫‪parameters‬‬ ‫ﻣﺪﺧﻼت‬ ‫املتغري 𝑡𝑡‪ ،،t‬وو𝜽𝜽‬
‫ﻣﺪﺧﻼت )‬ ‫هو 𝑡𝑡‪ ،‬و‬
‫اﻟﻤﺘﻐﯿﺮ𝜽𝜽‬ ‫بحيث𝑥𝑥‪xt‬ھﻮ‬
‫اﻟﻤﺘﻐﯿﺮ‬ ‫ﺑﺤﯿﺚ !𝑥𝑥 ھﻮ‬
‫ﺑﺤﯿﺚ !‬
‫اﻟﻨﻤﻮذجهبذه‬
‫الصوت‬ ‫توليدھﺬا‬
‫اﻟﻨﻤﻮذج‪ .‬ﻓﻲ‬
‫ﺗﻮﻟﯿﺪ‬
‫ﻣﺸﻜﻠﺔ ﺗﻮﻟﯿﺪ‬ ‫مشكلة‬
‫ﻣﺸﻜﻠﺔ‬ ‫!!(𝑥𝑥‪.‬‬
‫‪parameters‬‬
‫اﻟﻌﯿﻨﺎت !!𝑥𝑥‪.‬‬ ‫العينات‬
‫اﻟﻌﯿﻨﺎت‬ ‫يسبقها )ﻣﻦ‬
‫من‬
‫ﯾﺴﺒﻘﮭﺎ ﻣﻦ‬
‫ﻣﺪﺧﻼت‬
‫ﯾﺴﺒﻘﮭﺎ‬ ‫𝜽𝜽‬
‫ﺑﻨﺎءﻣﺎماﻋﻠﻰ ﻣﺎ‬
‫عىل‬‫بناء‪ ،‬و‬
‫ﻋﻠﻰ‬ ‫اﻟﻤﺘﻐﯿﺮ 𝑡𝑡‬
‫ﺑﻨﺎء!𝑥𝑥‬ ‫ھﻮ 𝑥𝑥‬
‫الصوتية‬
‫اﻟﺼﻮﺗﯿﺔ‪x‬‬
‫! ‪t‬‬
‫اﻟﺼﻮﺗﯿﺔ‬
‫اﻟﻌﯿﻨﺔ‬
‫ﺑﺤﯿﺚ !‬
‫العينة𝑥𝑥‬ ‫ﯾﺘﻢ ﺗﻮﻟﯿﺪﯾﺘﻢتوليد‬
‫اﻟﻌﯿﻨﺔ‬
‫ﺗﻮﻟﯿﺪ‬
‫جد ًا‪.‬‬ ‫ﻣﺸﻜﻠﺔ ٍ‬
‫عالﺗﻮﻟﯿﺪ‬ ‫!!𝑥𝑥‪.‬ﻓﻲ‬
‫الصوتية‬ ‫اﻟﻌﯿﻨﺎت‬
‫املقاطع‬
‫اﻟﻌﯿﻨﺎت‬ ‫ﻷن ﻣﻦ‬
‫العينات يف‬
‫ﻣﻌﺪل‬ ‫ﯾﺴﺒﻘﮭﺎ‬
‫معدل‬‫ألن ﻣﺎ‬
‫ﻣﻦﻋﻠﻰ‬‫املعاجلة‬‫اﻟﺼﻮﺗﯿﺔمن!𝑥𝑥‬
‫اﻟﻜﺜﯿﺮﺑﻨﺎء‬ ‫الكثري‬ ‫اﻟﻌﯿﻨﺔ‬
‫يتطلب‬ ‫ﺗﻮﻟﯿﺪ‬ ‫ﯾﺘﻢ‬
‫الطريقة أنه‬
‫اﻟﻌﯿﻨﺎت ﻓﻲ‬ ‫ﻷن ﻣﻌﺪل‬ ‫اﻟﻤﻌﺎﻟﺠﺔاﻟﻤﻌﺎﻟﺠﺔ‬
‫اﻟﻜﺜﯿﺮ ﻣﻦ‬ ‫ﯾﺘﻄﻠﺐ ﯾﺘﻄﻠﺐ‬ ‫اﻟﻄﺮﯾﻘﺔ أﻧﮫ‬‫أﻧﮫ‬ ‫اﻟﻄﺮﯾﻘﺔ‬
‫اﻟﺼﻮت ﺑﮭﺬه‬ ‫اﻟﺼﻮت ﺑﮭﺬه‬
‫ﻓﻲإىل‬ ‫وصلت‬ ‫ﻣﻌﺪلحتى‬
‫اﻟﻌﯿﻨﺎت‬ ‫ﻷنالحق ًا‬‫حتسينها‬ ‫ولكنﺟﺪاًتم‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫البداية‪،‬‬
‫ﺑﻄﯿﺌﺔﻣﻦ‬
‫اﻟﻜﺜﯿﺮ‬ ‫أﻧﮫجد ًا يف‬
‫ﯾﺘﻄﻠﺐ‬ ‫بطيئة‬
‫اﻟﻄﺮﯾﻘﺔ‬ ‫‪wavenet‬‬ ‫كانتﻋﺎلﺑﮭﺬه‬
‫ﺟﺪاً‪.‬‬ ‫اﻟﻤﻘﺎطﻊ هلذااﻟﺼﻮت‬
‫اﻟﺒﺪاﯾﺔ‪،‬ﺗﻢوﻟﻜﻦ ﺗﻢ‬
‫وﻟﻜﻦ‬ ‫اﻟﺒﺪاﯾﺔ‪،‬‬
‫ﺑﻄﯿﺌﺔﻓﻲﺟﺪاً ﻓﻲ‬ ‫‪wavenet‬‬ ‫‪wavenet‬‬
‫ﻟﮭﺬا ﻛﺎﻧﺖ‬ ‫ﻛﺎﻧﺖ‬ ‫ﺟﺪاً‪.‬‬‫ﻟﮭﺬا‬‫ﻋﺎل‬
‫اﻟﺼﻮﺗﯿﺔ ٍ‬ ‫اﻟﺼﻮﺗﯿﺔ ٍ‬ ‫اﻟﻤﻘﺎطﻊ‬
‫ﻣﻘﺒﻮل‪ wavenet.‬ﺑﻄﯿﺌﺔ ﺟﺪاً ﻓﻲ اﻟﺒﺪاﯾﺔ‪ ،‬وﻟﻜﻦ ﺗﻢ‬ ‫أداء ﻛﺎﻧﺖ‬ ‫ﻋﺎل ﺟﺪاً‪.‬‬
‫ﻣﺴﺘﻮى ﻟﮭﺬا‬ ‫مقبول‪.‬إﻟﻰ ٍ‬
‫اﻟﺼﻮﺗﯿﺔ‬ ‫أداء‬‫طﻊ‬ ‫مستوى‬
‫ﺎ‬ ‫اﻟﻤﻘ‬
‫ﺗﺤﺴﯿﻨﮭﺎ ﻻﺣﻘﺎ ً‬
‫وﺻﻠﺖوﺻﻠﺖ إﻟﻰ ﻣﺴﺘﻮى أداء ﻣﻘﺒﻮل‪.‬‬ ‫ﻻﺣﻘﺎ ً ﺣﺘﻰ‬‫ﺗﺤﺴﯿﻨﮭﺎﺣﺘﻰ‬
‫التطبيقاتإﻟﻰ ﻣﺴﺘﻮى أداء ﻣﻘﺒﻮل‪.‬‬
‫اﻟﺘﻄﺒﯿﻘﺎت‬
‫ﺣﺘﻰ وﺻﻠﺖ‬
‫اﻟﻤﺰﯾﺪ ﻣﻦ‬ ‫املزيدﺎ ًمن‬ ‫‪٦٫7‬‬
‫ﺗﺤﺴﯿﻨﮭﺎ ﻻﺣﻘ‬
‫اﻟﺘﻄﺒﯿﻘﺎت‬ ‫اﻟﻤﺰﯾﺪ ﻣﻦ‬ ‫‪6.7 6.7‬‬
‫اﻟﺘﻄﺒﯿﻘﺎتاللغات التي تم استخدام التعلم العميق فيها‬
‫اﻟﻌﻤﯿﻖ ﻓﯿﮭﺎ‬
‫تطبيقات معاجلة‬
‫اﺳﺘﺨﺪام اﻟﺘﻌﻠﻢ‬ ‫منﻣﻦ‬ ‫هناك املزيد‬
‫اﻟﻤﺰﯾﺪ‬ ‫‪6.7‬‬
‫اﻟﻌﻤﯿﻖ ﻓﯿﮭﺎ‬ ‫اﺳﺘﺨﺪام اﻟﺘﻌﻠﻢ‬ ‫اﻟﻠﻐﺎتﺗﻢ اﻟﺘﻲ ﺗﻢ‬
‫اﻟﻠﻐﺎت اﻟﺘﻲ‬
‫ﻣﻌﺎﻟﺠﺔ ﻣﻌﺎﻟﺠﺔ‬
‫ﺗﻄﺒﯿﻘﺎتﺗﻄﺒﯿﻘﺎت‬ ‫ھﻨﺎك ﻣﻦ‬
‫اﻟﻤﺰﯾﺪ ﻣﻦ‬ ‫ھﻨﺎك اﻟﻤﺰﯾﺪ‬
‫فيام ييل أمثلة‬
‫ولكنﻓﯿﮭﺎ‬ ‫البسيطة‪،‬‬
‫اﻟﻌﻤﯿﻖ‬ ‫هذه املقدمة‬
‫اﻟﺒﺴﯿﻄﺔ‪،‬اﻟﺘﻌﻠﻢ‬
‫اﺳﺘﺨﺪام‬ ‫نحرصها يف‬
‫اﻟﺘﻲ ﺗﻢ‬ ‫اﻟﻠﻐﺎت‬ ‫يصعب أن‬
‫ﻣﻌﺎﻟﺠﺔ‬ ‫ﺗﻄﺒﯿﻘﺎت‬‫ممتازة‪.‬‬
‫نتائج ﻣﻦ‬
‫اﻟﻤﺰﯾﺪ‬ ‫وأعطت‬
‫ھﻨﺎك‬
‫ﻓﯿﻤﺎ‬ ‫وﻟﻜﻦ‬ ‫اﻟﻤﻘﺪﻣﺔ‬ ‫ھﺬه‬ ‫ﻓﻲ‬ ‫ﻧﺤﺼﺮھﺎ‬
‫ﯾﺼﻌﺐ أن ﻧﺤﺼﺮھﺎ ﻓﻲ ھﺬه اﻟﻤﻘﺪﻣﺔ اﻟﺒﺴﯿﻄﺔ‪ ،‬وﻟﻜﻦ ﻓﯿﻤﺎ‬ ‫أن‬ ‫ﯾﺼﻌﺐ‬
‫ﻣﻤﺘﺎزة‪.‬‬ ‫ﻣﻤﺘﺎزة‪.‬‬
‫ﻧﺘﺎﺋﺞ‬ ‫وأﻋﻄﺖ ﻧﺘﺎﺋﺞ‬
‫وأﻋﻄﺖ‬
‫ﯾﺼﻌﺐ أن ﻧﺤﺼﺮھﺎ ﻓﻲ ھﺬه اﻟﻤﻘﺪﻣﺔ اﻟﺒﺴﯿﻄﺔ‪ ،‬وﻟﻜﻦ ﻓﯿﻤﺎ‬ ‫هنا‪:‬‬ ‫تذكر‬
‫ﻣﻤﺘﺎزة‪.‬‬ ‫مل‬
‫ﻧﺘﺎﺋﺞ‬‫تطبيقات‬
‫وأﻋﻄﺖ‬ ‫عىل‬
‫ھﻨﺎ‪:‬‬
‫ﺗﺬﻛﺮ ھﻨﺎ‪:‬‬ ‫ﺗﺬﻛﺮ‬ ‫ﻟﻢ‬
‫ﺗﻄﺒﯿﻘﺎت ﻟﻢ‬ ‫ﺗﻄﺒﯿﻘﺎت‬ ‫ﻋﻠﻰ‬ ‫ﯾﻠﻲ أﻣﺜﻠﺔ‬
‫ﯾﻠﻲ أﻣﺜﻠﺔ·ﻋﻠﻰ‬
‫‪)Text Classification‬‬ ‫النصوص (‬ ‫تصنيف‬
‫ﯾﻠﻲ أﻣﺜﻠﺔ ﻋﻠﻰ ﺗﻄﺒﯿﻘﺎت ﻟﻢ ﺗﺬﻛﺮ ھﻨﺎ‪:‬‬
‫‪)Text Summarization‬‬
‫‪72‬‬
‫·تلخيص النصوص (‬
‫‪72‬‬
‫‪)Question‬‬ ‫‪and72Answering‬‬ ‫·اإلجابة عىل األسئلة (‬
‫·التعرف عىل األعالم ()‪)Named Entity Recognition (NER‬‬
‫·الكشف عن النسخ املعدل (‪)Paraphrase Detection‬‬
‫·التصحيح اإلمالئي (‪)Spell Checking‬‬
‫·توليد النصوص (‪)Natural Language Generation‬‬

‫‪-65-‬‬
‫املراجع‬
Amodei, D., Ananthanarayanan, S., Anubhai, R., Bai, J., Battenberg,
E., Case, C., . . . Zhu, Z. (2016). Deep Speech 2: End-to-End
Speech Recognition in English and Mandarin. In Proceedings
of the 33rd International Conference on International
Conference on Machine Learning, (pp. 173-182).
Bojanowski, P., Grave, E., Joulin, A., & Mikolov, T. (2017). Enriching
Word Vectors with Subword Information. Transactions of the
Association for Computational Linguistics, 135-146.
Cho, K., Merrienboer, B. v., Bahdanau, D., & Bengio, Y. (2014). On
the Properties of Neural Machinetranslation: Encoder-decoder
Approaches. arXiv preprint.
Graves, A., Fernández, S., Gomez, F., & Schmidhuber, J.
(2006). Connectionist Temporal Classification: Labelling
Unsegmented Sequence Data with Recurrent Neural Networks.
In Proceedings of the 23rd International Conference on
Machine learning (ICML ‘06), (pp. 369-376).
Hebb, D. (1949). The Organization of Behavior. New York: Wiley.
Hinton, G. E., Osindero, S., & Teh, Y.-W. (2006). A Fast Learning
Algorithm for Deep Belief Nets. Neural Computation, 1527-
1554.
Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory.
Neural Comput., 1735-1780.
Hopfield, J. J. (1982). Neural networks and physical systems with
emergent collective computational abilities. Proceedings of the
National Academy of Sciences, (pp. 554-2558).

-66-
Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet
Classification with Deep Convolutional Neural Networks. In
Proceedings of the 25th International Conference on Neural
Information Processing Systems, (pp. 1097-1105).
McCulloch, W., & Walter, P. (1943). A Logical Calculus of Ideas
Immanent in Nervous Activity. Bulletin of Mathematical
Biophysics, 115–133.
Mikolov, T., Sutskever, I., Chen, K., Corrado, G., & Dean, J. (2013).
Distributed Representations of Words and Phrases and Their
Compositionality. In Proceedings of the 26th International
Conference on Neural Information Processing Systems, (pp.
3111-3119).
Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to
Computational Geometry. MIT Press.
Oord, A. v., Dieleman, S., Zen, H., Simonyan, K., Vinyals, O., Graves,
A., . . . Kavukcuoglu, K. (2016). WaveNet: A Generative
Model for Raw Audio. SSW.
Pennington, J., Socher, R., & Manning, C. D. (2014). Glove: Global
Vectors for Word Representation. In EMNLP.
Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model
For Information Storage And Organization In The Brain.
Psychological Review, 386–408.
Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning
Internal Representations by Error Propagation. In Parallel
Distributed Processing: Explorations in the Microstructure of
Cognition, 318-362.
Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence
Learning with Neural Networks. In Proceedings of the 27th
International Conference on Neural Information Processing
Systems, (pp. 3104-3112).

-67-
Widrow, B. (1960). An Adaptive Adaline Neuron Using Chemical
Memistors. Stanford Electronics Laboratories Technical
Report.
Winter, R., & Widrow, B. (1988). MADALINE RULE II: A training
algorithm for neural networks. IEEE International Conference
on Neural Networks, 401-408.

-68-
‫الفصل الثالث‬
‫الترجمة اآللية‬

‫د‪ .‬عبداهلل بن صالح الراجح‬

‫‪-69-‬‬
-70-
‫ملخص الفصل‬
‫نشهد حالي ًا تطور ًا ملحوظ ًا يف أداء أنظمة الرتمجة اآللية بعد عقود من البحث‬
‫والتطوير‪ ،‬مما ساهم يف زيادة االعتامد عليها من املستخدم العادي وكذلك املرتجم‬
‫املحرتف‪ .‬لقد سامهت هذه األنظمة يف تسهيل الوصول للمعرفة بشتى اللغات وكذلك‬
‫التواصل مع األمم األخرى بأقل التكاليف‪ .‬وتعد أمتتة الرتمجة من أصعب املشاكل يف‬
‫جمال الذكاء االصطناعي حيث تتطلب معارف لغوية عىل عدة مستويات ملحاكاة عمل‬
‫املرتجم املختص‪ .‬يقدم هذا الفصل نظرة عامة عىل جمال الرتمجة اآللية وتارخيه وأهم‬
‫األبحاث املقدمة فيه خصوص ًا املتعلقة برتمجة اللغة العربية‪ .‬كام يستعرض منهج الرتمجة‬
‫اآللية اإلحصائية (‪ )Statistical Machine Translation‬والذي كان املهيمن عىل‬
‫مدى عدة عقود من الزمن إىل أن حتول املجتمع البحثي حديث ًا وحلقه كربيات الرشكات‬
‫إىل املنهج املعتمد عىل الشبكات العصبية (‪ .)Neural Machine Translation‬وهبذه‬
‫النقلة النوعية دخلت الرتمجة اآللية عرص ًا جديد ًا سيتم عرض أهم مالحمه‪ .‬وبالرغم‬
‫من النجاحات إال أن هناك العديد من التحديات التي سنتطرق إىل أمهها يف هناية هذا‬
‫الفصل‪.‬‬

‫د‪ .‬عبداهلل بن صالح الراجح‬


‫حاصل عىل درجة الدكتوراه يف علوم احلاسب من جامعة ساوثامبتون يف بريطانيا‬
‫عام ‪2015‬م ودرجة املاجستري يف علوم احلاسب من جامعة مانشسرت يف بريطانيا عام‬
‫‪2009‬م ودرجة البكالوريوس يف علوم احلاسب من جامعة امللك سعود عام ‪2006‬م‪.‬‬
‫يعمل أستاذ بحث مساعد يف املركز الوطني لتقنية الذكاء االصطناعي والبيانات‬
‫الضخمة بمدينة امللك عبدالعزيز للعلوم والتقنية‪ .‬نرش العديد من األبحاث يف جمال‬
‫تعليم اآللة وتطبيقاته يف معاجلة اللغات الطبيعية‪ .‬وعمل عىل عدة مشاريع منها التعرف‬
‫الضوئي عىل الكتابة العربية‪ ،‬وكذلك كتابة برايل وأيض ًا تصنيف النصوص العربية كام‬
‫أدار مرشوع الرتمجة اآللية من العربية إىل العربية ويعمل حالي ًا عىل مرشوع املساعد‬
‫االفرتايض العريب‪ .‬اهتامماته البحثية ترتكز يف الرتمجة اآللية ومعاجلة الكالم باستخدام‬
‫التعلم العميق‪)asrajeh@kacst.edu.sa( .‬‬

‫‪-71-‬‬
‫‪ -1‬مقدمة‬
‫لقد سامهت الرتمجة وتساهم يف نقل الثقافات والعلوم بني الشعوب وتسهيل‬
‫التواصل فيام بينها‪ .‬ويبذل املرتمجون جهد ًا ووقت ًا كبريين يف ذلك‪ .‬حيث إن جمرد القدرة‬
‫عىل التحدث باللغة املرتجم إليها ال تكفي‪ ،‬بل يتطلب اﻷمر معارف أخرى تدرس‬
‫يف اجلامعات واملعاهد املتخصصة‪ .‬ويعد املرتجم املتمكن عملة نادرة خصوص ًا يف‬
‫جمال الرتمجة اﻷدبية التي تتطلب فه ًام أعىل للغة‪ ،‬وكذلك الرتمجة الفورية ملا تفرضه من‬
‫رسعة‪ .‬ولذا فإن عملية الرتمجة مكلفة عىل مجيع املستويات‪.‬‬
‫ومع بداية ظهور احلواسيب برزت مشكلة الرتمجة اﻵلية (‪)Machine Translation‬‬
‫ملحاكاة عمل املرتجم وهي إحدى أقدم وأصعب املشاكل يف جمال الذكاء االصطناعي‬
‫(‪ .)Artificial Intelligence‬وقد ُبذلت اجلهود للمسامهة يف حلها مدفوعة برغبة‬
‫أجهزة االستخبارات مضاعفة قدراهتا يف مجع املعلومات عن الدول اﻷجنبية‪ .‬وبالرغم‬
‫من التاريخ الطويل إﻻ أن اﻷمتتة الكاملة للرتمجة بجودة عالية ال تبدو قريبة املنال نظر ًا‬
‫الرتباط الرتمجة بقضايا لغوية وثقافية تصعب عىل اإلنسان فكيف باﻵلة‪ .‬جيدر بالذكر‬
‫أن هناك تطور ًا ملحوظ ًا يف جودة الرتمجة اﻵلية املعتمدة عىل منهجية التعلم العميق‬
‫(‪ )Deep Learning‬مما ساهم يف زيادة االعتامد عىل أنظمة الرتمجة من املستخدم العادي‬
‫وكذلك املرتجم املحرتف‪.‬‬
‫يمكن لنا تعريف الرتمجة ببساطة بأهنا عملية نقل معنى النص من لغة إىل أخرى‪.‬‬
‫وهذه العملية تتطلب جمموعة من املهارات بدء ًا باملعرفة الكاملة للغة اﻷصل (‪Source‬‬
‫ٍ‬
‫ومعان‬ ‫‪ )Language‬عىل مجيع املستويات من رصف (‪ )Morphology‬ونحو (‪)Syntax‬‬
‫(‪ )Semantics‬وتأويل (‪ )Pragmatics‬ومعرفة بسياق النص املرتجم (‪)Context‬‬
‫وانتها ًء بمعرفة مماثلة للغة املرتجم إليها (‪.)Target Language‬‬
‫وهناك عدة مناهج للرتمجة تتدرج يف مستويات التعقيد من الرتمجة املبارشة )‪(Direct‬‬
‫إىل مستوى النقل )‪ (Transfer‬من خالل التحليل الرصيف والنحوي وانتها ًء بمستوى‬
‫جتريد املعنى عن طريق لغة عاملية مستقلة )‪ (Interlingua‬ثم صياغته إىل اللغة اﻷخرى‬
‫(‪ .)Vauquois, 1968‬املخطط اهلرمي لفاكويس يوضح مناهج الرتمجة (الشكل ‪.)1‬‬

‫‪-72-‬‬
‫نسعى يف هذا الفصل إىل إعطاء القارئ الغري متخصص نظرة عامة عن الرتمجة اﻵلية‬
‫بدء ًا من تارخيها ثم أهم املناهج املتبعة لبناء أنظمة الرتمجة وكيفية تقييم جودهتا‪ .‬ثم‬
‫سنتحدث عن عرص جديد تعيشه الرتمجة اﻵلية مع دخول تقنيات التعلم العميق وما‬
‫واكبها من تطور يف جودة الرتمجة‪ .‬أخري ًا سنتطرق إىل أبرز التحديات التي يواجهها‬
‫الباحثون يف هذا املجال‪ .‬وسيكون الرتكيز اﻷكرب خالل الفصل عىل أنظمة الرتمجة من‬
‫اللغة العربية وإليها‪.‬‬

‫اﻟﺘﺮﺟﻤﺔ‪.‬‬
‫ﻟﻤﻨﺎھﺞ الرتمجة‪.‬‬ ‫فاكويسﮭﺮﻣﻲ‬
‫اهلرمي ملناهج‬ ‫ﻓﺎﻛﻮﯾﺲ اﻟ‬ ‫ﻣﺨﻄﻂ‬
‫خمطط‬ ‫اﻟﺸﻜﻞ ‪:1‬‬
‫الشكل ‪:1‬‬
‫‪ 2‬ﺷﻲء ﻣﻦ اﻟﺘﺎرﯾﺦ‬

‫التاريخاﻵﻟﯿﺔ ﻣﻊ ظﮭﻮر اﻟﺤﻮاﺳﯿﺐ‪ .‬وﻛﺎﻧﺖ ﺑﺮﯾﻄﺎﻧﯿﺎ ﺗﺴﺘﺨﺪﻣﮭﺎ ﻓﻲ‬


‫ﻓﻲمناﻟﺘﺮﺟﻤﺔ‬
‫يشء‬ ‫ﺑﺪأ ‪-2‬‬
‫اﻟﺒﺤﺚ‬
‫بدأ البحث يف الرتمجة اﻵلية مع ظهور احلواسيب‪ .‬وكانت بريطانيا تستخدمها يف‬
‫اﻟﺤﺮب اﻟﻌﺎﻟﻤﯿﺔ اﻟﺜﺎﻧﯿﺔ ﻟﻔﻚ ﺷﻔﺮة إﻧﺠﻤﺎ اﻷﻟﻤﺎﻧﯿﺔ )‪ (Enigma machine‬اﻷﻣﺮ‬
‫احلرب العاملية الثانية لفك شفرة إنجام اﻷملانية (‪ )Enigma machine‬اﻷمر الذي يعد‬
‫اﻟﻤﺠﺎل‪ ،‬ﻓﻲ‬
‫ﻓﻲ‪1947‬م‬ ‫اﻟﺮوادعام‬ ‫وﯾﻔﺮ‪،‬يف أﺣﺪ‬
‫املجال‪ ،‬يف‬ ‫وارنالرواد‬ ‫وارن ﻛﺘﺐ‬
‫ويفر‪ ،‬أحد‬ ‫كتبﻵﻟﯿﺔ‪.‬‬
‫اﻟﺘﺮﺟﻤﺔ ا‬ ‫بعملﺎ ًالرتمجة‬
‫ﺑﻌﻤﻞ اﻵلية‪.‬‬ ‫ﯾﻌﺪًا ﺷﺒﯿﮭ‬
‫اﻟﺬيشبيه‬
‫مكتوب‬
‫ﺑﺎﻟﺮوﺳﯿﺔ‬ ‫إﻟﻰهذاﻣﻘﺎل‬
‫أﻧﻈﺮأقول‬
‫بالروسية‬
‫"ﻋﻨﺪﻣﺎ‬‫ﻓﯿﮭﺎ‪:‬مقال‬
‫أنظر إىل‬
‫«عندماﯾﻘﻮل‬
‫فيها‪:‬وﯾﻨﺮ‬ ‫وينر يقول‬
‫ﻧﻮرﺑﺮت‬ ‫نوربرت إﻟﻰ‬
‫‪1947‬إىلم رﺳﺎﻟﺔ‬
‫ﻋﺎم رسالة‬
‫باإلنجليزية لكنه مشفر‪ .‬سأقوم اﻵن بفك تشفريه» (‪.)Weaver, 1947‬‬
‫أﻗﻮل ھﺬا ﻣﻜﺘﻮب ﺑﺎﻹﻧﺠﻠﯿﺰﯾﺔ ﻟﻜﻨﮫ ﻣﺸﻔﺮ‪ .‬ﺳﺄﻗﻮم اﻵن ﺑﻔﻚ ﺗﺸﻔﯿﺮه" ) ‪Weaver,‬‬
‫‪.(1947‬‬

‫‪-73-‬اﻟﻮﻻﯾﺎت اﻟﻤﺘﺤﺪة اﻷﻣﺮﯾﻜﯿﺔ ﻟﺪﯾﮭﺎ رﻏﺒﺔ‬


‫ﻋﺪد ﻣﻦ اﻟﺪول ﻓﻲ ذﻟﻚ اﻟﻮﻗﺖ ﺑﺎﻟﺬات‬
‫ﻟﺘﻄﻮﯾﺮ أﻧﻈﻤﺔ ﺗﺮﺟﻤﺔ ﻷﻏﺮاض أﻣﻨﯿﺔ وﻛﺎن ھﻨﺎك ﺗﻔﺎؤل ﻛﺒﯿﺮ ﺑﺤﻞ ﻣﺸﻜﻠﺔ اﻟﺘﺮﺟﻤﺔ‬
‫عدد من الدول يف ذلك الوقت بالذات الواليات املتحدة اﻷمريكية لدهيا رغبة‬
‫لتطوير أنظمة ترمجة ﻷغراض أمنية وكان هناك تفاؤل كبري بحل مشكلة الرتمجة اﻵلية يف‬
‫غضون سنوات‪ .‬يف عام ‪1954‬م قامت جامعة جورجتاون مع رشكة آي يب إم بتجربة‬
‫بناء نظام ترمجة من اللغة الروسية إىل اﻹنجليزية اعتامد ًا عىل قاموس حمدود وست قواعد‬
‫لغوية فقط (‪ .)Slocum, 1985‬القت هذه التجربة أصداء واسعة جذبت اهتامم ودعم‬
‫املؤسسات احلكومية اﻷمريكية‪ ،‬إال أن التقدم بعد ذلك أصبح بطيئ ًا ليتم تشكيل جلنة‬
‫حكومية (‪ )ALPAC‬بعد عقد من الزمان لتقييم أبحاث الرتمجة اﻵلية‪ .‬يف عام ‪1966‬م‬
‫خلصت اللجنة يف تقريرها إىل أن قدرات الرتمجة اآللية مبالغ فيها وأن تكاليف املرتمجني‬
‫أقل من حترير خمرجات أنظمة الرتمجة ونتيجة لذلك توقف متويل أبحاث الرتمجة اآللية‬
‫يف أغلبه (‪.)Philipp, 2010‬‬
‫بعد عدة سنوات عادت األبحاث لرتكز عىل التمثيل املجرد للمعنى (‪meaning-‬‬
‫‪ )oriented‬بشكل مستقل عن اللغة املحددة‪ .‬وبالرغم من جاذبية الفكرة إال أن صعوبة‬
‫تنفيذها حال دون إحراز تقدم فيها وعدت من املشاكل الكربى يف الذكاء االصطناعي‪.‬‬
‫عىل العكس من ذلك كان هناك تقدم يف أنظمة الرتمجة املعتمدة عىل قواعد اللغة (‪rule-‬‬
‫‪ )based‬املبنية من قبل خمتصني يف اللغة (‪ .)linguistics‬كانت هذه األنظمة فعالة ألن‬
‫اللغة يف جمملها ثابته (‪ )static‬إال أن بناءها مكلف مادي ًا ويستغرق وقت ًا حلرص القواعد‬
‫من اخلرباء لكل لغة جديدة‪ .‬األمر اآلخر إضافة قواعد لغوية قد خيلق تعارضات مع‬
‫القواعد السابقة و يتطلب حلها وقت ًا طويالً‪ .‬من أشهر األنظمة التجارية يف تلك الفرتة‬
‫(‪ )Systran‬و (‪.)Logos‬‬

‫‪ -3‬حجر رشيد‬
‫عاد ًة ما ُيرمز بحجر رشيد (‪ )Rosetta Stone‬للمنهج احلديث يف الرتمجة اآللية‬
‫املعتمد عىل نصوص مرتمجة سابقة (‪ُ .)data-driven approach‬أكتشف احلجر يف‬
‫مرص عام ‪1799‬م جنوب اجليزة‪ ،‬منقوش عليه مرسوم ملكي باملرصية واليونانية‬
‫القديمة يعود لعام ‪ 196‬قبل امليالد يف عهد امللك بطليموس اخلامس (الشكل ‪ .)2‬كان‬
‫اكتشافه مفتاح ًا لفك شفرة اهلريوغليفية املرصية عىل معابد ومقابر الفراعنة‪.‬‬

‫‪-74-‬‬
‫الشكل ‪ :2‬حجر رشيد منقوش عليه مرسوم ملكي باملرصية القديمة يف األعىل والوسط وباليونانية‬
‫القديمة يف األسفل معروض يف املتحف الربيطاين (‪.)Wikipedia, © Hans Hillewaert‬‬

‫متكن الباحثون بعد ‪ 20‬عام ًا من فك شفرة اللغة املرصية القديمة عن طريق اللغة اليونانية‬
‫القديمة التي كانت معروفة من خالل املقارنة بني الثالث نسخ لنص املرسوم امللكي‪ .‬وهنا‬
‫تكمن رمزية حجر رشيد للباحثني يف الرتمجة اآللية حيث أنه يمكن تعلم ترمجة اللغات من‬
‫خالل توفر نصوص مرتمجة متقابلة وكلام زادت النصوص سهل تعلم الرتمجة‪.‬‬

‫‪ -4‬الرتمجة اآللية اإلحصائية‬


‫كام ذكرنا سابق ًا فإن املنهجية احلديثة للرتمجة اآللية تعتمد عىل تعلم الرتمجة من خالل‬
‫نصوص مرتمجة سابق ًا‪ .‬هذه املنهجية بدأت تكتسب زمخ ًا يف هناية الثامنينيات امليالدية‬
‫حتى وقتنا احلارض‪ .‬فبدالً من االستعانة بخرباء اللغة لكتابة قواعد الرتمجة كام يف األنظمة‬

‫‪-75-‬‬
‫القائمة عىل القواعد (‪ )rule-based‬يمكن استخراج قواعد احتاملية (‪probabilistic‬‬
‫ﻣﺸﮭﻮرة‬
‫ﻣﺸﮭﻮرة‬
‫ﻣﺸﮭﻮرة‬ ‫ﻋﻠﻤﯿﺔ‬
‫ﻋﻠﻤﯿﺔ‬ ‫ﻋﻠﻤﯿﺔ‬‫ورﻗﺔ‬ ‫ورﻗﺔ‬‫آيﺑﻲإمﺑﻲإم إم‬
‫ورﻗﺔ‬ ‫ﺷﺮﻛﺔآيﺑﻲ‬
‫ﺷﺮﻛﺔآي‬ ‫ﺑﺎﺣﺜﻮنﻣﻦﻣﻦ‬
‫ﺷﺮﻛﺔ‬ ‫ﺑﺎﺣﺜﻮنﻣﻦ‬
‫ﺑﺎﺣﺜﻮن‬
‫ﻧﺸﺮ‬‫ﻧﺸﺮ‬
‫ﻧﺸﺮ‬ ‫‪1993‬م‬
‫‪1993‬م‬ ‫‪1993‬م‬ ‫ﻋﺎمﻋﺎم‬
‫ﻓﻔﻲﻓﻔﻲ‬
‫ﻋﺎم‬ ‫ﻓﻔﻲ‬ ‫ﺼﺎء‪.‬‬
‫ﺼﺎء‪.‬‬ ‫ﺼﺎء‪.‬‬
‫اﻹﺣ‬‫اﻹﺣ‬
‫اﻹﺣ‬
‫‪ )rules‬من النصوص من خالل اإلحصاء‪ .‬ففي عام ‪1993‬م نرش باحثون من رشكة آي‬
‫ﻧﻈﺎم‬
‫ﻧﻈﺎم‬‫ﻟﺒﻨﺎءﻧﻈﺎم‬
‫ﻧﻤﺎذجﻟﺒﻨﺎء‬‫ﻧﻤﺎذج‬ ‫ﺧﻤﺴﺔ‬
‫ﺧﻤﺴﺔ‬ ‫ﺗﺼﻒ‬
‫ﺗﺼﻒ‬ ‫اﻹﺣﺼﺎﺋﯿﺔ"‬
‫اﻹﺣﺼﺎﺋﯿﺔ"‬ ‫اﻵﻟﯿﺔ‬
‫اﻵﻟﯿﺔ‬ ‫اﻟﺘﺮﺟﻤﺔ‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫"رﯾﺎﺿﯿﺎت‬
‫"رﯾﺎﺿﯿﺎت‬ ‫ﺑﻌﻨﻮان‬
‫ﺑﻌﻨﻮان‬
‫ﻟﺒﻨﺎء مخسة‬
‫ﻧﻤﺎذجتصف‬ ‫اإلحصائية»‬ ‫ﺧﻤﺴﺔ‬ ‫ﺗﺼﻒ‬ ‫اﻹﺣﺼﺎﺋﯿﺔ"‬
‫الرتمجة اآللية‬ ‫اﻵﻟﯿﺔ‬
‫«رياضيات‬ ‫اﻟﺘﺮﺟﻤﺔ‬
‫بعنوان‬ ‫"رﯾﺎﺿﯿﺎت‬
‫مشهورة‬ ‫ﺑﻌﻨﻮانعلمية‬
‫يب إم ورقة‬
‫‪Brown‬‬
‫‪Brown‬‬ ‫ﺑﻲإمﺑﻲإم) )إم )‬ ‫ﻻﺣﻘﺎ ًﺑﻨﻤﺎذج‬
‫ﺑﻨﻤﺎذجآيﺑﻲ‬
‫ﺑﻨﻤﺎذجآي‬ ‫ﻻﺣﻘﺎ ً‬ ‫ﻋﺮﻓﺖ‬
‫ﻋﺮﻓﺖ‬ ‫اﻹﻧﺠﻠﯿﺰﯾﺔ‬
‫اﻟﻔﺮﻧﺴﯿﺔإﻟﻰاﻹﻧﺠﻠﯿﺰﯾﺔ‬
‫اﻟﻔﺮﻧﺴﯿﺔإﻟﻰ‬
‫اﻟﻔﺮﻧﺴﯿﺔ‬ ‫اﻟﻠﻐﺔ‬
‫ﺗﺮﺟﻤﺔﻣﻦﻣﻦ‬
‫اﻟﻠﻐﺔ‬ ‫ﺗﺮﺟﻤﺔﻣﻦ‬
‫ﺗﺮﺟﻤﺔ‬
‫‪Brown‬‬
‫بنامذج آي يب إم‬ ‫آي‬
‫الحق ًا‬ ‫ﻻﺣﻘﺎ ًعرفت‬ ‫ﻋﺮﻓﺖ‬
‫اإلنجليزية‬ ‫اﻹﻧﺠﻠﯿﺰﯾﺔ‬
‫اللغةإﻟﻰالفرنسية إىل‬ ‫اﻟﻠﻐﺔ‬
‫ترمجة من‬ ‫نظام‬ ‫نامذج لبناء‬
‫ﺑﺎﻟﻠﻐﺘﯿﻦ‪.‬‬ ‫اﻟﻤﺪوﻧﺔ‬ ‫ﻜﻨﺪي‬ ‫اﻋﺘﻤﺎداً‬
‫اﻋﺘﻤﺎداً‬
‫ﺑﺎﻟﻠﻐﺘﯿﻦ‪.‬‬
‫باللغتني‪.‬‬
‫ﺑﺎﻟﻠﻐﺘﯿﻦ‪.‬‬ ‫اﻟﻤﺪوﻧﺔ‬
‫املدونة‬
‫اﻟﻤﺪوﻧﺔ‬ ‫الكندي‬
‫ﻜﻨﺪي‬ ‫اﻟﺒﺮﻟﻤﺎناﻟ اﻟ‬
‫ﻜﻨﺪي‬ ‫اﻟﺒﺮﻟﻤﺎناﻟ‬
‫اﻟﺒﺮﻟﻤﺎن‬
‫الربملان‬ ‫وﻗﺎﺋﻊ‬
‫وقائع‬‫وﻗﺎﺋﻊ‬
‫وﻗﺎﺋﻊ‬ ‫ﻧﺼﻮص‬
‫نصوص‬
‫ﻧﺼﻮص‬ ‫ﻧﺼﻮص‬ ‫عىل‬ ‫ﻋﻠﻰ‬
‫ﻋﻠﻰ‬ ‫ﻋﻠﻰ‬
‫اﻋﺘﻤﺎداً‬
‫اعتامد ًا‬ ‫‪(et(et(al.,‬‬
‫‪)Brown‬‬ ‫‪al.,‬‬
‫‪etet‬‬ ‫‪al.,‬‬‫‪1993‬‬
‫‪1993‬‬
‫‪al.,‬‬ ‫‪1993‬‬
‫(‪1993‬‬
‫ﺻﯿﻔﯿﺔﻓﻲ‬
‫ﺻﯿﻔﯿﺔﻓﻲ‬
‫جامعة‬
‫ﻓﻲ‬ ‫ﺻﯿﻔﯿﺔيف‬‫ورﺷﺔ‬
‫ورﺷﺔ‬
‫صيفية‬
‫ورﺷﺔ‬ ‫أﺛﻨﺎء‬
‫ورشة‬
‫أﺛﻨﺎء‬ ‫اﻟﻤﺼﺪر‬
‫أﺛﻨﺎء‬ ‫اﻟﻤﺼﺪر‬
‫أثناء‬
‫اﻟﻤﺼﺪر‬ ‫املصدر‬‫ﻣﻔﺘﻮﺣﺔ‬
‫ﻣﻔﺘﻮﺣﺔ‬
‫مفتوحة‬
‫ﻣﻔﺘﻮﺣﺔ‬ ‫وﺟﻌﻠﮭﺎ‬
‫وﺟﻌﻠﮭﺎ‬
‫وﺟﻌﻠﮭﺎ‬‫وجعلها‬ ‫ﺑﺒﺮﻣﺠﺘﮭﺎ‬
‫ﺑﺒﺮﻣﺠﺘﮭﺎ‬‫ﺑﺎﺣﺜﻮن‬
‫بربجمتها‬
‫ﺑﺒﺮﻣﺠﺘﮭﺎ‬ ‫ﺳﻨﻮاتﻗﺎمﻗﺎم‬
‫ﺑﺎﺣﺜﻮن‬
‫باحثون‬
‫ﺑﺎﺣﺜﻮن‬ ‫ﺳﻨﻮاتﻗﺎم‬
‫قام‬ ‫ﺳﻨﻮات‬
‫سنوات‬‫وﺑﻌﺪ‬
‫وﺑﻌﺪ‬‫وﺑﻌﺪ‬
‫وبعد‬
‫(‪.(.‬‬
‫‪Al-Onaizan‬‬
‫‪Al-Onaizan‬‬
‫‪.(Al-Onaizan‬‬ ‫‪etetal.,1999‬‬
‫‪etal.,1999‬‬
‫‪.)Al-Onaizan‬‬ ‫‪al.,1999‬‬
‫‪et‬‬ ‫(‪)al.,1999‬‬
‫ھﻮﺑﻜﻨﺰ)‬
‫ھﻮﺑﻜﻨﺰ )‬‫ھﻮﺑﻜﻨﺰ‬
‫ﺟﻮﻧﺰ‬ ‫هوبكنز‬
‫ﺟﻮﻧﺰ‬
‫ﺟﻮﻧﺰ‬ ‫جونز‬
‫ﺟﺎﻣﻌﺔ‬
‫ﺟﺎﻣﻌﺔ‬
‫ﺟﺎﻣﻌﺔ‬
‫مجلة‬
‫إﻟﻰ‬ ‫معطاة‬
‫ﻣﻌﻄﺎةإىل‪f‬‬
‫ﻣﻌﻄﺎة‪f f‬‬
‫إﻟﻰإﻟﻰ‬ ‫ﻣﻌﻄﺎة ‪f‬‬ ‫فرنسية‬
‫ﻓﺮﻧﺴﯿﺔ‬
‫ﻓﺮﻧﺴﯿﺔ‬
‫ﻓﺮﻧﺴﯿﺔ‬ ‫جلملة‬
‫ﻟﺠﻤﻠﺔ‬
‫ﻟﺠﻤﻠﺔ‬
‫ﻟﺠﻤﻠﺔ‬ ‫ترمجة‬
‫ﺗﺮﺟﻤﺔ‬
‫ﺗﺮﺟﻤﺔ‬
‫ﺗﺮﺟﻤﺔ‬ ‫أفضل‬
‫أﻓﻀﻞ‬
‫أﻓﻀﻞ‬ ‫أنأن‬
‫أﻓﻀﻞ‬ ‫أن‬ ‫‪()Brown‬‬
‫أن(‬ ‫‪Brown‬‬
‫‪(Brown‬‬
‫‪Brown‬‬ ‫‪al.,‬‬
‫‪etetal.,‬‬
‫‪etal.,‬‬ ‫‪1993‬‬
‫(‪1993‬‬
‫‪al.,‬‬
‫‪1993‬‬‫‪1993‬‬ ‫يقرتح )‬
‫ﯾﻘﺘﺮح)‬
‫ﯾﻘﺘﺮح )‬‫ﯾﻘﺘﺮح‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫كالتايل‪:‬‬
‫وطوط‬ ‫اﻟﻤﺸﺮ‬
‫وط‬ ‫املرشوط‬
‫اﻟﻤﺸﺮ‬
‫اﻟﻤﺸﺮ‬ ‫اﻻﺣﺘﻤﺎل‬‫االحتامل‬
‫اﻻﺣﺘﻤﺎل‬
‫اﻻﺣﺘﻤﺎل‬ ‫ﻗﯿﻤﺔ‬
‫ﻗﯿﻤﺔ‬ ‫ﻗﯿﻤﺔ‬ ‫قيمةﻣﻦ‬
‫ﺗﺰﯾﺪﻣﻦﻣﻦ‬
‫ﺗﺰﯾﺪ‬ ‫من‬
‫اﻟﺘﻲ‬
‫ﺗﺰﯾﺪ‬
‫اﻟﺘﻲ‬ ‫تزيد‬
‫ھﻲ‬ ‫التي‬
‫إﻧﺠﻠﯿﺰﯾﺔ‪e e‬‬
‫ھﻲ‪e‬ھﻲ‬
‫اﻟﺘﻲ‬ ‫إنجليزية‬
‫ﺟﻤﻠﺔ‪ e‬هي‬
‫إﻧﺠﻠﯿﺰﯾﺔ‬
‫إﻧﺠﻠﯿﺰﯾﺔ‬ ‫ﺟﻤﻠﺔ‬
‫ﺟﻤﻠﺔ‬

‫‪==argmax‬‬
‫‪ebest‬‬
‫‪ebest‬‬
‫‪ebest‬‬‫‪best‬‬ ‫‪=argmax‬‬
‫‪argmax‬‬‫‪ee e𝑝𝑝e𝑝𝑝e‬‬
‫𝑝𝑝 ‪e‬‬ ‫‪f ef f‬‬
‫ﺑﻨﺎءبناء‬
‫ﺑﻨﺎء‬ ‫الصعب‬
‫ﺑﻨﺎء‬‫اﻟﺼﻌﺐ‬
‫اﻟﺼﻌﺐ‬‫اﻟﺼﻌﺐ‬‫ﻣﻦﻣﻦمن‬
‫ﻣﻦ‬ ‫ﻓﺈﻧﮫفإنه‬
‫ﻓﺈﻧﮫ‬ ‫اإلنجليزية‪،‬‬
‫ﻓﺈﻧﮫ‬‫اﻹﻧﺠﻠﯿﺰﯾﺔ‪،‬‬
‫اﻹﻧﺠﻠﯿﺰﯾﺔ‪،‬‬
‫اﻹﻧﺠﻠﯿﺰﯾﺔ‪،‬‬ ‫اجلمل‬
‫اﻟﺠﻤﻞ‬ ‫ﻣﻦﻣﻦمن‬
‫اﻟﺠﻤﻞ‬
‫اﻟﺠﻤﻞ‬ ‫ﻣﻦ‬ ‫حمدود ًا‬
‫ﻣﺤﺪوداً‬
‫ﻣﺤﺪوداً‬ ‫ﻋﺪدًااًﻻالﻻ‬
‫ﻣﺤﺪوداً‬ ‫عدد‬
‫ﻻ‬‫ﻋﺪداً‬ ‫هناك‬
‫ﻋﺪداً‬‫ھﻨﺎك‬
‫ھﻨﺎك‬ ‫وﺣﯿﺚإنإنإن‬
‫ھﻨﺎك‬ ‫وحيث‬
‫وﺣﯿﺚ‬
‫إن‬ ‫وﺣﯿﺚ‬
‫قانون‬
‫ﻗﺎﻧﻮن‬
‫ﻗﺎﻧﻮن‬
‫باستخدام‬
‫ﻗﺎﻧﻮن‬ ‫ﺑﺎﺳﺘﺨﺪام‬ ‫أسهل‬
‫أﺳﮭﻞ‬
‫ﺑﺎﺳﺘﺨﺪام‬
‫ﺑﺎﺳﺘﺨﺪام‬ ‫أﺳﮭﻞ‬‫أﺳﮭﻞ‬ ‫أجزاء‬
‫أﺟﺰاء‬
‫أﺟﺰاء‬
‫اﻟﻤﺸﻜﻠﺔإىل‬
‫أﺟﺰاء‬ ‫املشكلة‬
‫إﻟﻰإﻟﻰإﻟﻰ‬
‫اﻟﻤﺸﻜﻠﺔ‬‫تقسيم‬
‫ﺗﻘﺴﯿﻢ‬
‫اﻟﻤﺸﻜﻠﺔ‬ ‫ﺗﻘﺴﯿﻢ‬
‫ﺗﻘﺴﯿﻢ‬
‫ﻟﺬﻟﻚﯾﺘﻢيتم‬
‫ﻟﺬﻟﻚﯾﺘﻢﯾﺘﻢ‬
‫لذلك‬
‫ﻟﺬﻟﻚ‬
‫ﺑﯿﻨﮭﺎ‪.‬‬
‫بينها‪.‬‬
‫ﺑﯿﻨﮭﺎ‪.‬‬
‫ﺑﯿﻨﮭﺎ‪.‬‬ ‫يميز‬
‫ﯾﻤﯿﺰ‬
‫ﯾﻤﯿﺰ‬‫ﯾﻤﯿﺰ‬ ‫واحد‬
‫واﺣﺪ‬
‫واﺣﺪ‬ ‫واﺣﺪ‬ ‫نموذج‬
‫ﻧﻤﻮذج‬
‫ﻧﻤﻮذج‬
‫ﻧﻤﻮذج‬
‫كالتايل‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫ﻟﺘﺼﺒﺢ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫لتصبح‬ ‫‪)Bayes‬‬
‫‪(Bayes‬‬
‫ﻟﺘﺼﺒﺢ‬ ‫‪(Bayes‬‬‫‪rule‬‬‫‪rule‬‬
‫‪rule‬‬ ‫بيزﺑﯿﺰ(‬
‫ﺑﯿﺰ) )‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫ﻟﺘﺼﺒﺢ‬ ‫‪(Bayes‬‬ ‫‪rule‬‬ ‫ﺑﯿﺰ )‬

‫‪argmax‬‬ ‫𝑝𝑝‬ ‫‪e‬‬ ‫‪f‬‬ ‫=‬ ‫‪argmax‬‬ ‫‪𝑝𝑝 𝑝𝑝e𝑝𝑝e𝑝𝑝e𝑝𝑝f𝑝𝑝ef fe e‬‬


‫‪argmax‬‬ ‫𝑝𝑝‬ ‫‪e‬‬ ‫‪f‬‬ ‫=‬ ‫‪argmax‬‬
‫(𝑝𝑝(𝑝𝑝 ‪argmaxe 𝑝𝑝e ee f = argmaxe ee e‬‬
‫‪e‬‬
‫)‪𝑝𝑝(f)f)f‬‬

‫الصحيح‬
‫اﻟﺼﺤﯿﺢ‬ ‫اﻟﺼﺤﯿﺢ‬
‫اﻟﺼﺤﯿﺢ‬ ‫اﻟﻤﻌﻨﻰ‬
‫املعنى‬
‫اﻟﻤﻌﻨﻰ‬
‫اﻟﻤﻌﻨﻰ‬ ‫ﺗﺤﻤﻞ‬
‫حتمل‬
‫ﺗﺤﻤﻞ‬‫ﺗﺤﻤﻞ‬ ‫اﻟﺠﻤﻠﺔ‬
‫اجلملة‬ ‫اﺣﺘﻤﺎﻟﯿﺔأنأن‬
‫اﻟﺠﻤﻠﺔ‬
‫اﻟﺠﻤﻠﺔ‬ ‫أن‬ ‫اﺣﺘﻤﺎﻟﯿﺔأن‬
‫احتاملية‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬‫ﯾﻌﻄﻲ‬
‫يعطي‬
‫ﯾﻌﻄﻲ‬ ‫اﻟﻨﻤﻮذج‬
‫النموذج‬
‫اﻟﻨﻤﻮذج‪𝑝𝑝 𝑝𝑝f𝑝𝑝ef fe e‬‬
‫ﯾﻌﻄﻲ‬ ‫ﺣﯿﺚإنإنإن‬
‫اﻟﻨﻤﻮذج‬ ‫ﺣﯿﺚ‬
‫حيث‬
‫إن‬ ‫ﺣﯿﺚ‬
‫ﻟﻐﻮﯾ ًاﺎ ً‬
‫لغوي‬
‫ﻟﻐﻮﯾﺎ ً‬ ‫سليمة‬
‫ﻟﻐﻮﯾﺎ ً‬
‫ﺳﻠﯿﻤﺔ‬ ‫اجلملة‬
‫ﺳﻠﯿﻤﺔ‬
‫ﺳﻠﯿﻤﺔ‬ ‫اﻟﺠﻤﻠﺔ‬
‫اﻟﺠﻤﻠﺔ‬‫اﻟﺠﻤﻠﺔ‬‫أن‬
‫أنأن‬ ‫احتاملية‬
‫اﺣﺘﻤﺎﻟﯿﺔأن‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬ ‫ﯾﻌﻄﻲ‬‫يعطي‬
‫ﯾﻌﻄﻲ‬
‫ﯾﻌﻄﻲ‬ ‫والنموذج‬
‫واﻟﻨﻤﻮذج ‪e‬‬
‫واﻟﻨﻤﻮذج‪𝑝𝑝 𝑝𝑝e𝑝𝑝e‬‬
‫واﻟﻨﻤﻮذج‬ ‫‪)translation‬‬
‫‪(translation‬‬
‫‪(translation‬‬
‫‪(translation‬‬ ‫‪model‬‬
‫‪model‬‬ ‫() ) )‬
‫‪model‬‬
‫‪model‬‬
‫األخطاء‬
‫اﻷﺧﻄﺎء‬
‫اﻷﺧﻄﺎء‬
‫اﻷﺧﻄﺎء‬ ‫وﺧﺎﻟﯿﺔﻣﻦمن‬
‫ﻣﻦ‬ ‫وخالية‬
‫ﻣﻦ‬ ‫وﺧﺎﻟﯿﺔ‬
‫وﺧﺎﻟﯿﺔ‬ ‫صحيحة‬
‫ﺻﺤﯿﺤﺔ‬
‫ﺻﺤﯿﺤﺔ‬ ‫ﺻﺤﯿﺤﺔ‬ ‫ترمجة‬
‫ﺗﺮﺟﻤﺔ‬
‫ﺗﺮﺟﻤﺔ‬ ‫عنﻋﻦ‬
‫ﺗﺮﺟﻤﺔ‬ ‫ﻋﻦ‬‫ﻋﻦ‬‫البحث‬
‫منﻻًﻣﻦﻣﻦ‬
‫اﻟﺒﺤﺚ‬
‫اﻟﺒﺤﺚ‬
‫اﻟﺒﺤﺚ‬ ‫ﻓﺒﺪﻣﻦ‬ ‫ﻓﺒﺪ(‪.‬الًﻻ‬
‫ﻓﺒﺪًﻻً‬ ‫فبد‬
‫(‪.(.‬‬‫)‪.‬‬ ‫‪language‬‬
‫‪language‬‬
‫‪language‬‬
‫‪language‬‬ ‫‪model‬‬
‫‪model‬‬
‫‪model‬‬ ‫() ) )‬
‫‪model‬‬
‫لضعف‬
‫اﻟﺒﻘﯿﺔ‬ ‫البقية‬
‫وﻧﺘﺠﺎھﻞ‬ ‫ونتجاهل‬‫ﻟﻐﻮﯾﺎ ً‬
‫ﻟﻐﻮﯾﺎ ً‬‫لغوي ً‬
‫اﻟﺴﻠﯿﻤﺔا‬‫السليمة‬
‫ﻟﺠﻤﻞ‬ ‫اجلمل ا‬
‫ﻋﻠﻰا‬ ‫عىل‬ ‫الرتكيز‬
‫اﻟﺘﺮﻛﯿﺰ‬ ‫يتمﯾﺘﻢ‬ ‫واحد‪،‬‬ ‫وقت‬ ‫اﻟﻠﻐﻮﯾﺔيف‬
‫اللغوية‬
‫اﻟﺒﻘﯿﺔ‬
‫اﻟﺒﻘﯿﺔ‬ ‫وﻧﺘﺠﺎھﻞ‬
‫وﻧﺘﺠﺎھﻞ‬ ‫ﻟﻐﻮﯾﺎ ً‬ ‫اﻟﺴﻠﯿﻤﺔ‬
‫اﻟﺴﻠﯿﻤﺔ‬ ‫ﻟﺠﻤﻞ‬‫ﻟﺠﻤﻞ‬
‫ﻋﻠﻰ ا‬ ‫ﻋﻠﻰ‬
‫اﻟﺘﺮﻛﯿﺰ‬ ‫واﺣﺪ‪،‬ﯾﺘﻢﯾﺘﻢ‬
‫اﻟﺘﺮﻛﯿﺰ‬ ‫واﺣﺪ‪،‬‬
‫واﺣﺪ‪،‬‬ ‫وﻗﺖ‬
‫وﻗﺖ‬ ‫ﻓﻲﻓﻲﻓﻲ‬
‫وﻗﺖ‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬
‫‪noisy‬‬ ‫‪-channel‬‬
‫وﺗﺴﻤﻰ‬ ‫اﻻﺗﺼﺎﻻت‬ ‫وتسمى (‬
‫ﻣﺠﺎل‬ ‫االتصاالت‬ ‫اﻟﻄﺮﯾﻘﺔجمال‬
‫مشهورة يف‬ ‫الطريقة‬ ‫وهذه‬ ‫وقوعها‪.‬‬ ‫احتامل‬
‫وﺗﺴﻤﻰ‬ ‫وﺗﺴﻤﻰ‬ ‫اﻻﺗﺼﺎﻻت‬
‫اﻻﺗﺼﺎﻻت‬ ‫ﻣﺠﺎل‬‫ﻣﺠﺎل‬ ‫ﻣﺸﮭﻮرةﻓﻲﻓﻲ‬
‫ﻣﺸﮭﻮرةﻓﻲ‬
‫ﻣﺸﮭﻮرة‬ ‫اﻟﻄﺮﯾﻘﺔ‬
‫اﻟﻄﺮﯾﻘﺔ‬ ‫وھﺬه‬
‫وھﺬه‬ ‫وھﺬه‬ ‫وﻗﻮﻋﮭﺎ‪.‬‬
‫وﻗﻮﻋﮭﺎ‪.‬‬
‫وﻗﻮﻋﮭﺎ‪.‬‬ ‫اﺣﺘﻤﺎل‬ ‫ﻟﻀﻌﻒ‬
‫اﺣﺘﻤﺎل‬
‫اﺣﺘﻤﺎل‬ ‫ﻟﻀﻌﻒ‬‫ﻟﻀﻌﻒ‬
‫صديقه‪ ،‬بعضها يصل مشوه ًا‪،‬‬ ‫ﺷﺨﺼﺎ ً‬ ‫‪ )model‬التي تفرتض أن شخص ًا يتلقى رسائل من‬
‫ﺻﺪﯾﻘﮫ‪،‬‬
‫ﺻﺪﯾﻘﮫ‪،‬‬ ‫رﺳﺎﺋﻞﻣﻦﻣﻦ‬
‫ﺻﺪﯾﻘﮫ‪،‬‬ ‫رﺳﺎﺋﻞﻣﻦ‬
‫رﺳﺎﺋﻞ‬‫ﯾﺘﻠﻘﻰ‬
‫ﯾﺘﻠﻘﻰ‬
‫ﯾﺘﻠﻘﻰ‬ ‫ﺷﺨﺼﺎ ً‬ ‫ﺷﺨﺼﺎ ً‬‫ﺗﻔﺘﺮضأنأن‬
‫ﺗﻔﺘﺮضأن‬
‫ﺗﻔﺘﺮض‬ ‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫اﻟﺘﻲ‬‫‪(noisy-channel‬‬
‫‪(noisy-channel‬‬
‫‪(noisy-channel‬‬ ‫‪model‬‬
‫)) )‬
‫‪model‬‬
‫‪model‬‬
‫والستعادة الرسائل األصلية يتم البحث عن أكثر الرسائل املحتملة من صديقه‪ ،‬والتي‬
‫يمكن أن تُشوه هبذه الطريقة من خالل اخلربة السابقة‪.‬‬
‫‪8383‬‬
‫‪83‬‬
‫‪83‬‬

‫‪-76-‬‬
‫ﺑﻌﻀﮭﺎ ﯾﺼﻞ ﻣﺸﻮھﺎً‪ ،‬وﻻﺳﺘﻌﺎدة اﻟﺮﺳﺎﺋﻞ اﻷﺻﻠﯿﺔ ﯾﺘﻢ اﻟﺒﺤﺚ ﻋﻦ أﻛﺜﺮ اﻟﺮﺳﺎﺋﻞ‬
‫اﻟﺴﺎﺑﻘﺔ‪.‬‬
‫اﻟﺮﺳﺎﺋﻞ‬ ‫اﻟﺨﺒﺮةأﻛﺜﺮ‬
‫ﺧﻼل ﻋﻦ‬
‫اﻟﻄﺮﯾﻘﺔﯾﺘﻢﻣﻦاﻟﺒﺤﺚ‬
‫ﺑﮭﺬهاﻷﺻﻠﯿﺔ‬ ‫أن ﺗُﺸﻮه‬
‫اﻟﺮﺳﺎﺋﻞ‬ ‫واﻟﺘﻲ ﯾﻤﻜﻦ‬
‫وﻻﺳﺘﻌﺎدة‬ ‫ﺻﺪﯾﻘﮫ‪،‬‬
‫ﻣﺸﻮھﺎً‪،‬‬ ‫ﺑﻌﻀﮭﺎﻣﻦﯾﺼﻞ‬
‫اﻟﻤﺤﺘﻤﻠﺔ‬

‫اﻟﺴﺎﺑﻘﺔ‪.‬‬
‫اﻟﺨﺒﺮةﺗﺠﺰﺋﺘﮭﺎ‬ ‫اﺣﺘﻤﺎﻟﯿﺔﻣﻦ ﺧﻼل‬
‫وﻗﻮﻋﮭﺎ ﺑﻌﺪ‬ ‫ﺣﺴﺎباﻟﻄﺮﯾﻘﺔ‬
‫ﺸﻮه ﺑﮭﺬه‬‫ﯾﻤﻜﻦﻣﻦأن ﺗُ‬
‫ﺧﻼل‬ ‫واﻟﺘﻲﻟﻐﻮﯾﺎ ً‬ ‫ﺻﺪﯾﻘﮫ‪،‬‬
‫اﻟﺠﻤﻠﺔ‬ ‫ﺗﻘﺪﯾﺮﻣﻦﺳﻼﻣﺔ‬
‫اﻟﻤﺤﺘﻤﻠﺔ‬
‫وﯾﻤﻜﻦ‬
‫ﻗﺎﻋﺪةﺑﻌﺪاﻟﺴﻠﺴﻠﺔ‬
‫ﺗﺠﺰﺋﺘﮭﺎ‬ ‫ﺑﺎﺳﺘﺨﺪام‬
‫وﻗﻮﻋﮭﺎ‬ ‫ﺣﺴﺎبﺳﺒﻘﮭﺎ‬
‫اﺣﺘﻤﺎﻟﯿﺔ‬ ‫ﻣﺸﺮوطﺔ ﺑﻤﺎ‬
‫ﻛﻠﻤﺔﻣﻦ ﺧﻼل‬ ‫اﻟﺠﻤﻠﺔﻛﻞ‬
‫ﻟﻐﻮﯾﺎ ً‬ ‫ﺳﻼﻣﺔاﺣﺘﻤﺎﻟﯿﺔ‬
‫وﺣﺴﺎب‬
‫ﻛﻠﻤﺎت‪،‬ﺗﻘﺪﯾﺮ‬
‫إﻟﻰوﯾﻤﻜﻦ‬
‫ويمكن تقدير سالمة اجلملة لغوي ًا من خالل حساب احتاملية وقوعها بعد جتزئتها‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬اﺣﺘﻤﺎﻟﯿﺔ ﻛﻞ ﻛﻠﻤﺔ ﻣﺸﺮوطﺔ ﺑﻤﺎ ﺳﺒﻘﮭﺎ ﺑﺎﺳﺘﺨﺪام ﻗﺎﻋﺪة اﻟﺴﻠﺴﻠﺔ‬
‫‪(chain‬وﺣﺴﺎب‬ ‫‪ rule‬ﻛﻠﻤﺎت‪،‬‬
‫) إﻟﻰ‬
‫إىل كلامت‪ ،‬وحساب احتاملية كل كلمة مرشوطة بام سبقها باستخدام قاعدة السلسلة‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫⋯ !!𝑒𝑒 !!𝑒𝑒 𝑝𝑝 !!𝑒𝑒 𝑝𝑝 = !!𝑒𝑒 ‪𝑝𝑝 e = 𝑝𝑝 𝑒𝑒!!. 𝑒𝑒!!. ⋯ .‬‬ ‫𝑒𝑒(𝑝𝑝‬ ‫𝑒𝑒|(!!‬
‫‪chain‬‬
‫كالتايل‪:‬‬ ‫‪.rule‬‬
‫‪)chain‬‬
‫⋯ ‪!!.‬‬ ‫( ))‬
‫!!!𝑒𝑒‬
‫‪rule‬‬
‫!!!‬

‫ﻟﺬﻟﻚ ‪𝑝𝑝 e‬‬


‫ﻛﻠﻤﺔ‪= ،‬‬
‫ﻛﻞ‪𝑝𝑝 𝑒𝑒! .‬‬
‫ﻓﯿﮭﺎ!𝑒𝑒‬
‫ﺗﻘﻊ ⋯ ‪.‬‬
‫= أن!𝑒𝑒 ‪.‬‬ ‫اﻟﺘﻲ 𝑝𝑝‬
‫ﯾﻤﻜﻦ‬ ‫ﻣﺤﺪوداً⋯ﻣﻦ!𝑒𝑒 !𝑒𝑒‬
‫اﻟﺴﯿﺎﻗﺎت𝑝𝑝 !𝑒𝑒‬ ‫ﻋﺪداً! ﻻ‬
‫𝑒𝑒| !𝑒𝑒(𝑝𝑝‬ ‫ھﻨﺎك‪. ⋯ .‬‬
‫إﻻ )أن!!!𝑒𝑒‬
‫ﻋﺎدةً ﻣﺎ ﯾُﺤﺼﺮ اﻟﺴﯿﺎق ﺑﻌﺪد ﻣﺤﺪود ﻣﻦ اﻟﻜﻠﻤﺎت )‪ ،(n‬ﻋﺎدةً ﻣﻦ ﺛﻼث إﻟﻰ ﺧﻤﺲ‬
‫كلمة‪،‬ﻟﺬﻟﻚ‬
‫لذلك‬ ‫كلﻛﻠﻤﺔ‪،‬‬
‫فيهاﻛﻞ‬
‫تقعﻓﯿﮭﺎ‬
‫أن ﺗﻘﻊ‬
‫يمكنأن‬
‫اﻟﺘﻲ ﯾﻤﻜﻦ‬
‫اﻟﺴﯿﺎﻗﺎت التي‬ ‫ﻣﺤﺪوداًمن‬
‫ﻣﻦالسياقات‬ ‫ﻋﺪدًااًالﻻ حمدود ًا‬
‫ھﻨﺎكعدد‬
‫إالإﻻأنأنهناك‬
‫ﻛﻠﻤﺔﺧﻤﺲ‬
‫كلامت‪،‬‬ ‫ﻛﻞ إﻟﻰ‬
‫مخس‬ ‫ﺣﺘﻤﺎﻟﯿﺔإىل‬
‫ﺛﻼث‬ ‫ثالث‬ ‫منا‬
‫(‪،‬ة إن‬
‫ﻋﺎدةً ﻣﻦ‬ ‫ﺣﯿﺚ ً‬
‫عاد‬ ‫‪(n-gram‬‬
‫)‪n) ،‬‬ ‫‪ model‬ﻣﻦ‬
‫الكلامت (‪n‬‬
‫اﻟﻜﻠﻤﺎت‬ ‫اﻟﻨﻤﻮذج )‬
‫حمدود من‬
‫ﻣﺤﺪود‬ ‫ﺑﻌﺪد‬ ‫ھﺬااﻟﺴﯿﺎق‬
‫بعدد‬ ‫السياق‬‫وﯾﺴﻤﻰ‬
‫ُﺤﺼﺮ‬ ‫ﻛﻠﻤﺎت‪،‬يﻣﺎ ﯾ‬
‫رص‬ ‫عاد ًة ما‬
‫ﻋﺎد ُةً‬
‫ﻛﻠﻤﺔ ييل‪:‬‬
‫حتسب كام‬ ‫كلا كلمة‬
‫ﺣﺘﻤﺎﻟﯿﺔ ﻛﻞ‬ ‫احتاملية إن‬
‫‪ (n-gram‬ﺣﯿﺚ‬ ‫‪)n-gram‬‬
‫‪ model‬حيث إن‬ ‫ھﺬا‪model‬‬
‫اﻟﻨﻤﻮذج )‬ ‫ﻛﻤﺎ ﯾﻠﻲ‪:‬‬
‫النموذج (‬
‫وﯾﺴﻤﻰ‬ ‫هذا‬
‫ﻛﻠﻤﺎت‪،‬‬‫ﺗﺤﺴﺐ‬
‫ويسمى‬
‫!!!𝑒𝑒 ‪𝑝𝑝 𝑒𝑒!! 𝑒𝑒!!. ⋯ .‬‬
‫!!!𝑒𝑒 !!𝑒𝑒 𝑝𝑝 ≃ !!!‬
‫ﺗﺤﺴﺐ ﻛﻤﺎ ﯾﻠﻲ‪:‬‬
‫!!!𝑒𝑒 ‪!!!. ⋯ .‬‬
‫!!!‬

‫خالل‬ ‫(ماليني!𝑒𝑒 𝑝𝑝‬


‫اجلمل)ﻣﻦمنﺧﻼل‬
‫اﻟﺠﻤﻞ(‬ ‫)ﻣﻼﯾﯿﻦ𝑒𝑒‬
‫كثرية‪! . ⋯ .‬‬
‫!!!𝑒𝑒‬ ‫≃‬
‫نصوصﻛﺜﯿﺮة‬
‫ﻧﺼﻮص‬‫من𝑒𝑒 𝑝𝑝‬
‫ﻣﻦ𝑒𝑒 !‬ ‫!!!𝑒𝑒 ‪. ⋯ .‬‬
‫اﻻﺣﺘﻤﺎﻻت‬
‫االحتامالت‬
‫!!!‬ ‫تقديرھﺬههذه‬
‫ويمكنﺗﻘﺪﯾﺮ‬
‫وﯾﻤﻜﻦ‬
‫يف‬
‫ﺧﻼل‬‫وردت‬
‫ﻣﻦ اﻟﺘﻲ‬‫التي‬ ‫الكلامت‬
‫اﻟﻜﻠﻤﺎت‬
‫اﻟﺠﻤﻞ(‬ ‫عىلﺎ ً بقية‬
‫)ﻣﻼﯾﯿﻦﺑﻘﯿﺔ‬
‫ﻋﻠﻰ‬ ‫مقسوم ًا‬
‫ﻣﻘﺴﻮﻣ‬
‫ﻛﺜﯿﺮة‬ ‫فيها ﻓﯿﮭﺎ‬
‫ﻧﺼﻮص‬ ‫وردت‬‫وردت‬
‫اﻟﺘﻲ ﻣﻦ‬‫التي‬ ‫والسياقات‬
‫واﻟﺴﯿﺎﻗﺎت‬
‫اﻻﺣﺘﻤﺎﻻت‬ ‫ﻛﻠﻤﺔھﺬه‬‫كلمة‬ ‫اﺣﺼﺎءكل‬
‫وﯾﻤﻜﻦﻛﻞ‬
‫ﺗﻘﺪﯾﺮ‬ ‫احصاء‬
‫ﯾﻠﻲ‪ :‬وردت ﻓﯿﮭﺎ ﻣﻘﺴﻮﻣﺎ ً ﻋﻠﻰ ﺑﻘﯿﺔ اﻟﻜﻠﻤﺎت اﻟﺘﻲ‬ ‫ﻛﻤﺎاﻟﺘﻲ‬ ‫ﻛﻠﻤﺔكام ييل‪:‬‬
‫اﻟﺴﯿﺎﻗﺎت‬
‫واﻟﺴﯿﺎﻗﺎت‬ ‫السياقات‬
‫ﺗﻠﻚ‬ ‫ﻧﻔﺲ‬
‫ﻓﻲ ﻛﻞ‬ ‫تلك‬ ‫نفس‬
‫وردت‬
‫اﺣﺼﺎء‬
‫اﻟﺴﯿﺎﻗﺎت ﻛﻤﺎ ﯾﻠﻲ‪:‬‬
‫𝑒𝑒(‪count‬‬ ‫ﺗﻠﻚ‪!!!. ⋯ .‬‬
‫!!!‬ ‫ﻧﻔﺲ‬
‫!!!𝑒𝑒‬
‫!!!‬ ‫ﻓﻲ!𝑒𝑒 ‪.‬‬
‫وردت )!‬
‫!!!𝑒𝑒 !!𝑒𝑒 𝑝𝑝‬
‫!!!‬ ‫‪.‬‬ ‫⋯‬ ‫‪.‬‬ ‫𝑒𝑒‬‫!!!‬
‫!!!‬ ‫=‬
‫!!!𝑒𝑒 ‪count(𝑒𝑒 !!!. ⋯ .‬‬ ‫)𝑒𝑒 ‪.‬‬
‫!!!!!!𝑒𝑒(‪count‬‬ ‫!!!!!!𝑒𝑒 ‪. ⋯ .‬‬
‫) !𝑒𝑒 ‪.‬‬
‫= !!!𝑒𝑒 ‪𝑝𝑝 𝑒𝑒! 𝑒𝑒!!! . ⋯ .‬‬
‫اﻟﻤﻌﺠﻤﯿﺔ‬ ‫اﻹﺣﺼﺎءات‬
‫اإلحصاءات املعجمية‬ ‫طﺮﯾﻖ‬
‫طريق‬ ‫ﻋﻦعن‬ ‫𝑒𝑒(‪count‬‬
‫ﺑﺒﺴﺎطﺔ‬
‫ببساطة‬ ‫ﻓﯿﺘﻢفيتم‬ ‫ﻟﻠﻤﻌﻨﻰ‬
‫للمعنى‬ ‫⋯‪.‬‬ ‫نقل𝑒𝑒 ‪.‬‬
‫اﻟﺠﻤﻠﺔ‬
‫اجلملة!!!‬ ‫!!!‬‫صحة‪.‬ﻧﻘﻞ‬
‫)𝑒𝑒‬
‫تقديرﺻﺤﺔ‬‫أﻣﺎأماﺗﻘﺪﯾﺮ‬
‫وباستخدام‬
‫اﻟﻤﻌﺠﻤﯿﺔ‬ ‫اللغتني‬
‫اﻹﺣﺼﺎءات اﻟﻠﻐﺘﯿﻦ‬
‫ﻣﻦ‬ ‫طﺮﯾﻖمن‬
‫ﻣﺘﻘﺎﺑﻠﺔ‬ ‫ﻋﻦمتقابلة‬
‫ﻛﺜﯿﺮة‬ ‫كثرية‬
‫ﻧﺼﻮص‬ ‫نصوص‬
‫ﺑﺒﺴﺎطﺔ‬ ‫ﻣﻦ‬ ‫تقدر من‬
‫ﺗﻘﺪرﻓﯿﺘﻢ‬ ‫واﻟﺘﻲ‬
‫ﻟﻠﻤﻌﻨﻰ‬ ‫والتي‬
‫اﻟﺠﻤﻠﺔ‬ ‫‪،)lexical‬‬
‫‪،(lexical‬‬
‫ﻧﻘﻞ‬ ‫‪statistics‬ﺻﺤﺔ‬ ‫( ) أﻣﺎ‬
‫‪statistics‬‬
‫ﺗﻘﺪﯾﺮ‬
‫اﻟﻠﻐﺘﯿﻦالً‬
‫فبد‬ ‫‪.)Brown‬‬
‫‪Brown‬‬ ‫ﻣﺘﻘﺎﺑﻠﺔ‪ et‬ﻣﻦ‬
‫‪al.,‬‬
‫‪et )al.,‬‬
‫اﻻﺣﺘﻤﺎﻻت‬
‫ﻛﺜﯿﺮة‬‫‪1993‬‬ ‫ﺗﻘﺪر (‬
‫ﻧﺼﻮص‬ ‫االحتامالت‬
‫‪(IBM‬‬
‫ﻣﻦ‬ ‫تقدرﺗﻘﺪر‬
‫‪models‬‬‫‪)IBM‬‬
‫واﻟﺘﻲ‬ ‫‪lexical‬إم(‪)،‬‬ ‫‪(statistics‬‬
‫ﻧﻤﺎذج آي ﺑﻲ‬
‫‪models‬‬ ‫يب إم‬ ‫وﺑﺎﺳآي‬
‫ﺘﺨﺪام‬ ‫نامذج)‬
‫املقابلة‬ ‫اللغة‬
‫ﺗﺮﺟﻤﺔ أي‬
‫‪Brown‬‬ ‫اﺣﺘﻤﺎﻟﯿﺔإىل‬
‫‪et al.,‬‬ ‫كلمة‬ ‫أي‬ ‫ﺗﻘﺪرترمجة‬
‫اﺣﺘﺴﺎب‬
‫اﻻﺣﺘﻤﺎﻻت )‬ ‫احتاملية‬
‫ﯾﺘﻢ‬ ‫ﺛﺎﺑﺘﺔ(‬
‫‪IBM‬‬ ‫احتساب‬
‫ﻗﻮاﻣﯿﺲ‬
‫‪models‬‬ ‫ثابتة )يتم‬
‫ﻋﻠﻰ‬ ‫قواميسﺑﻲ‬
‫اﻻﻋﺘﻤﺎدإم‬ ‫عىل ﻣﻦ‬
‫ﻧﻤﺎذج آي‬ ‫االعتامدﻓﺒﺪ‬
‫ﺘﺨﺪامﻻً‬ ‫من‪1993‬‬
‫وﺑﺎﺳ(‪.‬‬
‫واحد واخلاطئة أقرب إىل صفر‪.‬‬ ‫ﺗﻜﻮنأقرب إىل‬‫ﺻﺤﯿﺤﺔتكون‬
‫اﻟﺘﺮﺟﻤﺔصحيحة‬
‫ﻛﺎﻧﺖالرتمجة‬
‫كانت‬ ‫ﻠﻤﺔ إﻟﻰ اﻟﻠﻐﺔ اﻟﻤﻘﺎﺑﻠﺔ 𝑒𝑒 𝑓𝑓 𝑝𝑝 وكلام‬
‫أﻗﺮبﯾﺘﻢإﻟﻰاﺣﺘﺴﺎب اﺣﺘﻤﺎﻟﯿﺔ ﺗﺮﺟﻤﺔ أي‬ ‫ﻗﻮاﻣﯿﺲ ﺛﺎﺑﺘﺔ‬ ‫ﻣﻦ اﻻﻋﺘﻤﺎد ﻋﻠﻰ‬ ‫ﻓﺒﺪﻻً‬‫وﻛﻠﻤﺎ‬
‫‪.(1993‬‬
‫بافرتاض أهنا تقع عىل مستوى الكلامت (‪ward-‬‬
‫‪84‬‬
‫‪84‬‬ ‫هذه الطريقة تُبسط عملية الرتمجة‬ ‫اﺣﺪ واﻟﺨﺎطﺌﺔ أﻗﺮب إﻟﻰ إن‬
‫ﺻﻔﺮ‪.‬‬
‫الكلامت تُرتجم مع ًا مما جيعل منهج‬
‫فبعضاﻟﻜﻠﻤﺎت‬
‫ﻣﺴﺘﻮى‬
‫‪84‬‬
‫احلسبان‪،‬‬ ‫السياق يف‬
‫ﺗﻘﻊ ﻋﻠﻰ‬ ‫أهنا ال تأخذ‬
‫ﺑﺎﻓﺘﺮاض أﻧﮭﺎ‬ ‫‪ ،)based‬إال‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫ن ھﺬه اﻟﻄﺮﯾﻘﺔ ﺗُﺒﺴﻂ ﻋﻤﻠﯿﺔ‬
‫الكلامت (‪ .)Koehn, 2010‬وعاد ًة‬ ‫ترمجة‬
‫ﺘﺮﺟﻢ ﻣﻌﺎ ً‬ ‫ترمجة العبارات (‪ )phrase-based‬أفضل من‬
‫‪ ،(ward-based‬إﻻ أﻧﮭﺎ ﻻ ﺗﺄﺧﺬ اﻟﺴﯿﺎق ﻓﻲ اﻟﺤﺴﺒﺎن‪ ،‬ﻓﺒﻌﺾ اﻟﻜﻠﻤﺎت ﺗُ‬
‫ما تُستخرج العبارات من معرفة حماذاة الكلامت (‪ )word alignments‬عن طريق نامذج‬
‫ﻤﺎ ﯾﺠﻌﻞ ﻣﻨﮭﺞ ﺗﺮﺟﻤﺔ اﻟﻌﺒﺎرات )‪ (phrase-based‬أﻓﻀﻞ ﻣﻦ ﺗﺮﺟﻤﺔ اﻟﻜﻠﻤﺎت‬
‫آي يب إم كام يبني الشكل ‪ .3‬جتدر اإلشارة إىل أن هناك طريقة أخرى تستخرج عبارات‬
‫‪ .(Koehn, 2010‬وﻋﺎدةً ﻣﺎ ﺗُﺴﺘﺨﺮج اﻟﻌﺒﺎرات ﻣﻦ ﻣﻌﺮﻓﺔ ﻣﺤﺎذاة اﻟﻜﻠﻤﺎت‬
‫هرمية (‪ )hierarchical phrases‬ال يتسع الفصل لرشحها (‪.)Chiang, 2007‬‬
‫‪ (word alignments‬ﻋﻦ طﺮﯾﻖ ﻧﻤﺎذج آي ﺑﻲ إم ﻛﻤﺎ ﯾﺒﯿﻦ اﻟﺸﻜﻞ ‪ .3‬ﺗﺠﺪر‬
‫ﻹﺷﺎرة إﻟﻰ أن ھﻨﺎك طﺮﯾﻘﺔ أﺧﺮى ﺗﺴﺘﺨﺮج ﻋﺒﺎرات ھﺮﻣﯿﺔ ) ‪hierarchical‬‬
‫‪-77-‬‬
‫‪ (phrase‬ﻻ ﯾﺘﺴﻊ اﻟﻔﺼﻞ ﻟﺸﺮﺣﮭﺎ )‪.(Chiang, 2007‬‬
‫العبارات‪.‬‬
‫ترمجة اﻟﻌﺒﺎرات‪.‬‬
‫استخراجﺗﺮﺟﻤﺔ‬
‫خالهلاﯾﺘﻢيتماﺳﺘﺨﺮاج‬
‫إنجليزيةﻣﻦمنﺧﻼﻟﮭﺎ‬
‫ﻣﻊمعإﻧﺠﻠﯿﺰﯾﺔ‬
‫عربية‬ ‫جلملة‬
‫ﻋﺮﺑﯿﺔ‬ ‫الكلامت‬
‫ﻟﺠﻤﻠﺔ‬ ‫حماذات‬
‫اﻟﻜﻠﻤﺎت‬ ‫الشكل ‪:3‬‬
‫ﻣﺤﺎذات‬ ‫اﻟﺸﻜﻞ ‪:3‬‬

‫اﺣﺘﻤﺎلترمجة‬
‫حساب احتامل‬‫بسهولةﺣﺴﺎب‬
‫املتقابلةﯾﺘﻢيتمﺑﺴﮭﻮﻟﺔ‬ ‫اجلمل‬
‫اﻟﻤﺘﻘﺎﺑﻠﺔ‬ ‫ﺟﻤﯿﻊمجيع‬
‫اﻟﺠﻤﻞ‬ ‫العبارات من‬ ‫اﺳﺘﺨﺮاجاستخراج‬
‫اﻟﻌﺒﺎرات ﻣﻦ‬ ‫ﺑﻌﺪ بعد‬
‫ضخمﻓﻲ‬
‫وﺗﻮﺿﻊ‬ ‫‪(relative‬جدول‬
‫‪ )frequency‬وتوضع يف‬ ‫النسبي (اﻟﻨﺴﺒﻲ )‬
‫‪relative frequency‬‬ ‫التكراراﻟﺘﻜﺮار‬
‫خاللﺧﻼل‬ ‫عبارة من‬
‫ﻋﺒﺎرة ﻣﻦ‬ ‫كلﻛﻞ‬
‫ﺗﺮﺟﻤﺔ‬
‫(‪ .)translation table‬عادة يتم اعتبار ترمجات حمدودة لكل عبارة (عرشين مثالً)‬
‫ﺟﺪول ﺿﺨﻢ )‪ .(translation table‬ﻋﺎدة ﯾﺘﻢ اﻋﺘﺒﺎر ﺗﺮﺟﻤﺎت ﻣﺤﺪودة ﻟﻜﻞ ﻋﺒﺎرة‬
‫أثناء البحث (‪ )decoding‬عن الرتمجة الصحيحة (الشكل ‪ .)4‬الحظ أن إعادة ترتيب‬
‫)اﻟﺸﻜﻞ ‪.(4‬‬ ‫)ﻋﺸﺮﯾﻦ ﻣﺜ ً‬
‫اﻟﺼﺤﯿﺤﺔ سابق ًا‪.‬‬
‫اﻟﺘﺮﺟﻤﺔكام تم ذكره‬ ‫مهامﻋﻦ‬
‫نموذج اللغة‬ ‫‪(decoding‬‬ ‫اﻟﺒﺤﺚ )‬
‫سليمة لغوي ًا من‬ ‫أﺛﻨﺎءمجلة‬
‫العباراتﻼ(لتكون‬
‫ﻻﺣﻆ أن إﻋﺎدة ﺗﺮﺗﯿﺐ اﻟﻌﺒﺎرات ﻟﺘﻜﻮن ﺟﻤﻠﺔ ﺳﻠﯿﻤﺔ ﻟﻐﻮﯾﺎ ً ﻣﻦ ﻣﮭﺎم ﻧﻤﻮذج اﻟﻠﻐﺔ‬
‫ﻛﻤﺎ ﺗﻢ ذﻛﺮه ﺳﺎﺑﻘﺎ ً‪.‬‬
‫‪-78-‬‬
‫‪86‬‬
‫الشكل ‪ :4‬توضيح خليارات البحث أثناء ترمجة مجلة عربية إىل اإلنجليزية‪.‬‬
‫اﻟﺸﻜﻞ ‪ :4‬ﺗﻮﺿﯿﺢ ﻟﺨﯿﺎرات اﻟﺒﺤﺚ أﺛﻨﺎء ﺗﺮﺟﻤﺔ ﺟﻤﻠﺔ ﻋﺮﺑﯿﺔ إﻟﻰ اﻹﻧﺠﻠﯿﺰﯾﺔ‪.‬‬
‫ومن‬
‫سهلة‪.‬وﻣﻦ‬
‫ليستﺳﮭﻠﺔ‪.‬‬ ‫مجلةﻣﺎماﻟﯿﺴﺖ‬
‫ﺟﻤﻠﺔ‬‫لرتمجة‬ ‫والكلامت‬
‫ﻟﺘﺮﺟﻤﺔ‬ ‫العبارات‬
‫واﻟﻜﻠﻤﺎت‬ ‫أﻓﻀﻞأفضل‬
‫اﻟﻌﺒﺎرات‬ ‫البحث عن‬ ‫ﻣﮭﻤﺔ مهمة‬
‫اﻟﺒﺤﺚ ﻋﻦ‬ ‫إن إن‬
‫أشهر خوارزميات البحث الفعالة ما يعرف بالبحث الشعاعي (‪ )beam search‬الذي‬
‫أﺷﮭﺮ ﺧﻮارزﻣﯿﺎت اﻟﺒﺤﺚ اﻟﻔﻌﺎﻟﺔ ﻣﺎ ﯾﻌﺮف ﺑﺎﻟﺒﺤﺚ اﻟﺸﻌﺎﻋﻲ )‪(beam search‬‬
‫يستكشف أفضل اخليارات‪ ،‬لكنه ال يضمن احلل األفضل‪ .‬ويبدأ ببناء ترمجات جزئية‬
‫اﻟﺬي ﯾﺴﺘﻜﺸﻒ أﻓﻀﻞ اﻟﺨﯿﺎرات‪ ،‬ﻟﻜﻨﮫ ﻻ ﯾﻀﻤﻦ اﻟﺤﻞ اﻷﻓﻀﻞ‪ .‬وﯾﺒﺪأ ﺑﺒﻨﺎء‬
‫تعرف بفرضيات (‪ )hypotheses‬ثم يوسع كل فرضية بشكل حمدود حتى يصل إىل‬
‫نموذجي‬ ‫احتاملية اعتامد ًا‬
‫ﻓﺮﺿﯿﺔ ﺑﺸﻜﻞ‬ ‫ﯾﻮﺳﻊ ﻛﻞ‬ ‫حتققﺛﻢأعىل‬
‫‪(hypotheses‬‬ ‫ﺑﻔﺮﺿﯿﺎت )‬
‫فرضية هي التي‬ ‫ﺗﻌﺮف‪ )5‬وأفضل‬ ‫ﺟﺰﺋﯿﺔ‬
‫(الشكل‬ ‫ﺗﺮﺟﻤﺎتاجلملة‬
‫هناية‬
‫ﯾﺼﻞ إﻟﻰ ﻧﮭﺎﯾﺔ اﻟﺠﻤﻠﺔ )اﻟﺸﻜﻞ ‪ (5‬وأﻓﻀﻞ ﻓﺮﺿﯿﺔ ھﻲ اﻟﺘﻲ ﺗﺤﻘﻖ‬ ‫والرتمجة‪.‬‬
‫اللغة ﺣﺘﻰ‬
‫ﻣﺤﺪود‬
‫أﻋﻠﻰ اﺣﺘﻤﺎﻟﯿﺔ اﻋﺘﻤﺎداً ﻧﻤﻮذﺟﻲ اﻟﻠﻐﺔ واﻟﺘﺮﺟﻤﺔ‪.‬‬

‫‪-79-‬‬
‫‪87‬‬
‫ﻋﺮﺑﯿﺔ‪..‬‬
‫عربية‪.‬‬ ‫ﻟﺠﻤﻠﺔ‬
‫جلملة‬ ‫ﺗﺮﺟﻤﺔ‬
‫ترمجة‬ ‫أﻓﻀﻞ‬ ‫ﻋﻦ‬ ‫‪((beam‬‬ ‫‪search‬‬‫شعاعي)((‬
‫ﺷﻌﺎﻋﻲ)‬ ‫ﺑﺤﺚ‬
‫ﺑﺤﺚ‪:‬ﺑﺤﺚ‬
‫‪5::5‬‬‫اﻟﺸﻜﻞ‬
‫ﻋﺮﺑﯿﺔ‬ ‫ﻟﺠﻤﻠﺔ‬
‫ﻋﺮﺑﯿﺔ‪.‬‬ ‫أفضل‪.‬‬
‫ﺗﺮﺟﻤﺔ‬
‫ﻋﺮﺑﯿﺔ‬
‫ﻟﺠﻤﻠﺔ‬ ‫أﻓﻀﻞعن‬
‫أﻓﻀﻞ‬
‫ﻟﺠﻤﻠﺔ‬
‫ﺗﺮﺟﻤﺔ‬ ‫‪)beam‬‬
‫ﻋﻦ‬ ‫‪beam‬‬
‫ﺗﺮﺟﻤﺔ‬ ‫‪search‬‬
‫‪(search‬‬
‫أﻓﻀﻞ ﻋﻦ‬
‫‪search‬ﻋﻦ‪beam‬‬
‫ﺷﻌﺎﻋﻲ‬
‫‪beam‬‬ ‫بحث‬
‫‪search‬‬
‫ﺷﻌﺎﻋﻲ )‬ ‫الشكل‬
‫ﺷﻌﺎﻋﻲ‪)5‬‬
‫اﻟﺸﻜﻞ‬ ‫اﻟﺸﻜﻞ ‪ :5‬ﺑﺤﺚ‬
‫اﻟﺸﻜﻞ ‪:5‬‬
‫وﺑﺎﻟﺮﻏﻢ ﻣﻦ أن أﻧﻈﻤﺔ اﻟﺘﺮﺟﻤﺔ ﺗﻘﻮم ﻋﻠﻰ ﻧﻤﻮذﺟﻲ اﻟﻠﻐﺔ واﻟﺘﺮﺟﻤﺔ إﻻ أن اﻟﺒﺎﺣﺜﯿﻦ‬
‫اﻟﺒﺎﺣﺜﯿﻦ‬ ‫اﻟﺒﺎﺣﺜﯿﻦإﻻ أن‬
‫الباحثني‬ ‫إال أن‬
‫اﻟﺒﺎﺣﺜﯿﻦ‬ ‫واﻟﺘﺮﺟﻤﺔأن‬
‫والرتمجة‬ ‫اﻟﻠﻐﺔ‬
‫إﻻ أن‬
‫اللغة‬
‫واﻟﺘﺮﺟﻤﺔ إﻻ‬ ‫ﻧﻤﻮذﺟﻲ‬
‫واﻟﺘﺮﺟﻤﺔ‬
‫نموذجي‬
‫اﻟﻠﻐﺔ‬ ‫ﻧﻤﻮذﺟﻲﻋﻠﻰ‬
‫اﻟﻠﻐﺔ‬
‫عىل‬
‫ﻧﻤﻮذﺟﻲ‬ ‫تقوم‬‫ﺗﻘﻮمﺗﻘﻮم‬
‫ﻋﻠﻰ‬ ‫اﻟﺘﺮﺟﻤﺔ‬
‫الرتمجة‬‫ﻋﻠﻰ‬ ‫أنظمة‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫ﺗﻘﻮم‬ ‫اﻟﺘﺮﺟﻤﺔﻈﻤﺔ‬
‫ﻣﻦأﻧأن أﻧ‬
‫أن‬
‫ﻈﻤﺔ‬ ‫أن من‬ ‫ﻈﻤﺔ‬
‫وبالرغم‬‫وﺑﺎﻟﺮﻏﻢ‬
‫وﺑﺎﻟﺮﻏﻢأﻧﻣﻦ‬
‫وﺑﺎﻟﺮﻏﻢ ﻣﻦ أن‬
‫ﯾﺴﻤﻰ ))‪log-‬‬ ‫إطﺎر‬ ‫ﺧﻼل‬ ‫ﻣﻦ‬ ‫اﻟﺘﺮﺟﻤﺔ‬ ‫ﺗﺤﺴﻦ‬ ‫اﻟﺘﻲ‬ ‫اﻷﺟﺰاء‬ ‫ﻣﻦ‬ ‫اﻟﻌﺪﯾﺪﻣﻦ‬ ‫ﺑﺈﺿﺎﻓﺔ‬ ‫ﻗﺎﻣﻮا‬
‫‪loglog-‬‬
‫‪-( log-‬‬
‫يسمى‬‫ﯾﺴﻤﻰ‬ ‫خاللإطﺎر‬
‫إطار‬
‫‪log-‬‬
‫ﯾﺴﻤﻰ )‬ ‫ﺧﻼل‬
‫إطﺎر)‬
‫ﯾﺴﻤﻰ‬ ‫ﻣﻦ‬
‫من‬
‫ﺧﻼل‬ ‫اﻟﺘﺮﺟﻤﺔ‬
‫الرتمجة‬
‫إطﺎر‬
‫ﺧﻼلﻣﻦ‬ ‫ﺗﺤﺴﻦ‬
‫حتسن‬ ‫األجزاءاﻟﺘﻲ‬
‫التي‬
‫اﻟﺘﺮﺟﻤﺔ ﻣﻦ‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫ﺗﺤﺴﻦ‬ ‫اﻷﺟﺰاء‬
‫ﺗﺤﺴﻦ‬
‫اﻟﺘﻲ‬ ‫اﻷﺟﺰاء‬ ‫من‬
‫اﻟﺘﻲ‬ ‫اﻟﻌﺪﯾﺪ‬
‫العديد‬
‫اﻷﺟﺰاء‬
‫اﻟﻌﺪﯾﺪ ﻣﻦ‬ ‫ﺑﺈﺿﺎﻓﺔ‬
‫بإضافة‬
‫ﺑﺈﺿﺎﻓﺔﻣﻦ‬ ‫ﻗﺎﻣﻮا‬
‫قاموا‬
‫اﻟﻌﺪﯾﺪ‬ ‫ﻗﺎﻣﻮا ﺑﺈﺿﺎﻓﺔ‬
‫ﻗﺎﻣﻮا‬
‫اﻟﺘﺮﺟﻤﺔ ))‪𝑝𝑝𝑝𝑝!!((ff..ee‬‬ ‫ﻟﻨﻈﺎم‬ ‫أﺧﺮى‬ ‫أﺟﺰاء‬ ‫إﺿﺎﻓﺔ‬ ‫ﻣﻦ‬ ‫إﺿﺎﻓﺔﻜ ّﻜﻦﻦ‬
‫كُﯾُ َﻤ َﻤ‬‫‪(linear‬‬ ‫‪framework‬ﻜﻦ‬
‫وإعطائها‬ ‫الرتمجة𝑝𝑝)‪.e‬‬
‫اﻟﺘﺮﺟﻤﺔ‪𝑝𝑝! (f‬‬ ‫لنظام)‪e‬‬
‫ﻟﻨﻈﺎم‪! (f.‬‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫أخرى‬
‫أﺧﺮى‬
‫اﻟﺘﺮﺟﻤﺔ‬
‫ﻟﻨﻈﺎم‬ ‫أجزاء‬
‫أﺟﺰاء‬
‫ﻟﻨﻈﺎم‬
‫أﺧﺮى‬ ‫إضافة‬
‫إﺿﺎﻓﺔ‬
‫أﺧﺮى‬
‫أﺟﺰاء‬ ‫منﻣﻦ‬
‫أﺟﺰاء‬
‫إﺿﺎﻓﺔ‬ ‫ّن ّﻣﻦ‬ ‫‪ّ َ linear‬م(ﻜ ﯾﻦ‬
‫ﻣﻦﯾُ ُي َﻤ‬
‫‪)(linear‬‬
‫‪linear‬‬ ‫‪ّ framework‬‬
‫‪framework‬ﯾُ َﻤ‬
‫‪(framework‬‬
‫‪linear framework‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫كالتايل‪:‬‬
‫أھﻤﯿﺘﮭﺎ‬
‫أھﻤﯿﺘﮭﺎ‬ ‫ﯾﻌﻜﺲ‬
‫ﯾﻌﻜﺲ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫أمهيتها‬‫ﻣﺤﺪداً !!𝜆𝜆𝜆𝜆‬
‫أھﻤﯿﺘﮭﺎ‬ ‫يعكس‬
‫ﻣﺤﺪد𝜆𝜆اً‬
‫ﯾﻌﻜﺲ‬
‫وزﻧﺎ ً‬
‫ﻣﺤﺪداً‬ ‫وزﻧﺎ ً‬ ‫حمدداًًا‬
‫وإﻋﻄﺎﺋﮭﺎﺎ ً!𝜆𝜆‬
‫وإﻋﻄﺎﺋﮭﺎ‬
‫ﻣﺤﺪد‬ ‫وزنﺎ ً ًا‬
‫وإﻋﻄﺎﺋﮭﺎ وزﻧ‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫أھﻤﯿﺘﮭﺎ‬ ‫ﯾﻌﻜﺲ‬ ‫!‬ ‫وزﻧ‬ ‫وإﻋﻄﺎﺋﮭﺎ‬
‫!!‬
‫!‬ ‫!‬
‫= ‪eebest‬‬ ‫‪argmax‬‬ ‫‪𝜆𝜆𝜆𝜆! ∗∗log‬‬ ‫‪𝑝𝑝𝑝𝑝!𝜆𝜆((ff.∗e.e)log‬‬
‫‪e = argmax‬‬
‫‪best‬‬ ‫‪=ebest‬‬ ‫=‬
‫‪ee argmax‬‬
‫‪argmax‬‬
‫‪best‬‬ ‫‪e‬‬ ‫‪e‬‬ ‫‪! 𝜆𝜆log‬‬
‫! )‪! ∗ log! ! 𝑝𝑝! (f.e‬‬
‫)‪) 𝑝𝑝 (f.e‬‬
‫}‪!∈{t,lm,lex,d,w‬‬
‫}‪!∈{t,lm,lex,d,w‬‬
‫}‪!∈{t,lm,lex,d,w‬‬
‫}‪!∈{t,lm,lex,d,w‬‬

‫املصدر‬
‫ﻣﻔﺘﻮح‬ ‫مفتوح‬
‫ﻣﻔﺘﻮحﻣﻔﺘﻮح‬ ‫‪((Moses‬‬
‫‪Moses‬‬ ‫‪)Moses‬‬ ‫ﻣﻮﺳﺰ ))‬ ‫‪((Moses‬‬
‫ﻣﻮﺳﺰ‬ ‫موسز‬ ‫ﻛﻨﻈﺎم‬ ‫كنظام)‬
‫ﻛﻨﻈﺎم‬ ‫اإلحصائية‬
‫اﻹﺣﺼﺎﺋﯿﺔ‬
‫اﻹﺣﺼﺎﺋﯿﺔ‬ ‫أﻧﻈﻤﺔالرتمجة‬
‫اﻟﺘﺮﺟﻤﺔ ﻛﻨﻈﺎم‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫أنظمة‬
‫أﻧﻈﻤﺔ‬ ‫حتتوي‬
‫ﺗﺤﺘﻮي‬
‫ﺗﺤﺘﻮي‬ ‫وعادةﻣﺎﻣﺎما‬
‫وﻋﺎدة‬
‫وﻋﺎدة‬
‫ﻣﻔﺘﻮح(‬
‫‪Moses‬‬ ‫ﻣﻮﺳﺰ )‬ ‫ﻣﻮﺳﺰ‬
‫ﻛﻨﻈﺎم‬ ‫اﻹﺣﺼﺎﺋﯿﺔ‬ ‫اﻹﺣﺼﺎﺋﯿﺔ‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫اﻟﺘﺮﺟﻤﺔ‬
‫أﻧﻈﻤﺔ‬ ‫أﻧﻈﻤﺔ‬
‫ﺗﺤﺘﻮي‬ ‫ﺗﺤﺘﻮي‬
‫ﻣﺎ‬ ‫وﻋﺎدة ﻣﺎوﻋﺎدة‬
‫‪)language‬‬
‫‪((translation‬‬ ‫‪model‬‬ ‫و(‬
‫‪model‬‬ ‫)‬ ‫‪translation‬‬
‫ھﻲ ))‬ ‫أﺟﺰاء‬ ‫‪model‬‬ ‫(‬ ‫هي‬ ‫أجزاء‬ ‫مخسة‬ ‫عىل‬ ‫‪)koehn,‬‬ ‫(‪2007‬‬
‫‪translation‬‬
‫‪(translation‬‬ ‫‪model‬‬
‫‪(translation‬‬ ‫‪model‬‬ ‫‪)model‬ھﻲ‬ ‫ھﻲ‬‫أﺟﺰاء‬ ‫ﺧﻤﺴﺔ)‬
‫ﺧﻤﺴﺔ‬
‫أﺟﺰاء‬‫ﺧﻤﺴﺔ ھﻲ‬ ‫ﻋﻠﻰ‬
‫ﻋﻠﻰﻋﻠﻰ‬
‫أﺟﺰاء‬ ‫ﺧﻤﺴﺔ(‬
‫‪(koehn,‬‬
‫‪koehn,‬‬ ‫‪2007‬ﻋﻠﻰ‬
‫‪(koehn,‬‬ ‫‪2007‬‬ ‫اﻟﻤﺼﺪر ))‬
‫‪(koehn,‬‬
‫‪2007‬‬ ‫اﻟﻤﺼﺪر‬
‫‪) 2007‬‬ ‫اﻟﻤﺼﺪر )‬
‫اﻟﻤﺼﺪر‬
‫يمكن‬ ‫جزء‬
‫‪((reordering‬‬ ‫وكل‬ ‫)‪.‬‬ ‫‪word‬‬
‫‪model‬‬ ‫‪penalty‬‬
‫و)‬ ‫و(‬ ‫)‬ ‫‪reordering‬‬ ‫‪model‬‬ ‫و(‬ ‫)‬ ‫‪lexical‬‬ ‫‪model‬‬ ‫و(‬
‫‪reordering‬‬
‫‪(reordering‬‬ ‫‪model‬‬
‫‪(reordering‬‬ ‫‪model‬‬ ‫و)( و)‬ ‫‪(lexical‬‬
‫‪lexical‬‬
‫‪model‬‬ ‫‪ model‬و)‬
‫‪(lexical‬‬ ‫‪model‬‬
‫‪(lexical‬‬
‫‪model‬‬
‫و)‬
‫و)( و)‬
‫‪(language‬‬
‫‪language‬‬
‫‪model‬‬ ‫‪(language‬‬
‫‪model‬‬
‫‪model‬‬
‫‪ (language‬و)‬ ‫و)‪ model‬و)و)‬
‫‪model‬‬ ‫و)‬
‫جمموعة‬ ‫عىل‬ ‫النظام‬ ‫اختبار‬
‫ً‬ ‫خالل‬
‫ً‬ ‫من‬ ‫عادة‬ ‫يكون‬ ‫حتديدها‬ ‫أن‬ ‫إال‬ ‫‪،‬‬‫ا‬‫ً‬ ‫اعتباطي‬ ‫ً‬
‫ا‬ ‫وزن‬ ‫إعطاؤه‬
‫ﺗﺤﺪﯾﺪھﺎ‬
‫ﺗﺤﺪﯾﺪھﺎ‬ ‫أن‬ ‫إﻻ أن‬ ‫إﻻ‬ ‫اﻋﺘﺒﺎطﯿﺎ ًﺎ‪،‬‬ ‫وزﻧﺎ ًﺎإﻻ‬ ‫إﻋﻄﺎؤه‬
‫اﻋﺘﺒﺎطﯿﺎً‪،‬‬ ‫ﯾﻤﻜﻦ‬
‫وزﻧﺎ ً‬ ‫ﺟﺰء‬ ‫وﻛﻞ‬ ‫ﺟﺰء(‪.(.‬‬
‫‪word‬‬ ‫‪penalty‬‬ ‫و)‪ penalty‬و)و)‬
‫ﺗﺤﺪﯾﺪھﺎ‬
‫‪discriminative‬‬ ‫األفضل‪( ،‬أن‬
‫ﺗﺤﺪﯾﺪھﺎ‬ ‫اﻋﺘﺒﺎطﯿإﻻ‬
‫أنً‪،‬‬
‫اﻋﺘﺒﺎطﯿﺎ‬
‫اختيار‬
‫وزﻧ‬ ‫إﻋﻄﺎؤه‬
‫وزﻧﺎ ً‬
‫ثم‬ ‫إﻋﻄﺎؤه‬
‫ومن‬
‫إﻋﻄﺎؤهﯾﻤﻜﻦ‬
‫ﺟﺰءﺟﺰء‬
‫ﯾﻤﻜﻦ‬
‫أوزان‪،‬‬ ‫بعدة‬
‫وﻛﻞ‬
‫وﻛﻞﯾﻤﻜﻦ‬
‫ا‬
‫‪word‬‬ ‫وﻛﻞ‬
‫املرتمجة(‪ُ .‬مسبق ً‬
‫‪word‬‬ ‫‪penalty‬‬
‫‪.(penalty‬‬
‫‪word‬‬
‫اجلمل‬ ‫و)من‬
‫ﺑﻌﺪة‬ ‫ً‬
‫ﺑﻌﺪةﺎ ﺑﻌﺪة‬
‫‪)MERT‬‬
‫ﺴﺒﻘﺎ ً‬
‫ﺴﺒﻘ‬ ‫اﻟﻤﺘﺮﺟﻤﺔ ًﻣ ُﻣ‬
‫ﺴﺒﻘﺎ ُ‬
‫أشهرها (‬ ‫ﺑﻌﺪة‬
‫اﻟﻤﺘﺮﺟﻤﺔ‬ ‫اﻟﺠﻤﻞﺴﺒﻘﺎ ً‬
‫اﻟﻤﺘﺮﺟﻤﺔ ُﻣ‬‫بذلك‬ ‫اﻟﻤﺘﺮﺟﻤﺔ ُﻣ‬
‫اﻟﺠﻤﻞ‬ ‫اﻟﺠﻤﻞ‬
‫تقوم‬
‫ﻣﻦ‬
‫التي ﻣﻦ‬‫ﻣﺠﻤﻮﻋﺔ‬
‫اﻟﺠﻤﻞﻣﻦ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬
‫ﻋﻠﻰ‬
‫ﻣﻦ‬
‫اخلوارزميات‬
‫اﻟﻨﻈﺎم‬
‫ﻣﺠﻤﻮﻋﺔﻋﻠﻰ‬
‫اﻟﻨﻈﺎم‬
‫ﻋﻠﻰ‬
‫اﺧﺘﺒﺎر‬
‫ﻋﻠﻰ‬
‫اﺧﺘﺒﺎرمن‬
‫اﻟﻨﻈﺎم‬
‫ﺧﻼل‬
‫اﻟﻨﻈﺎم‬
‫ﺧﻼل‬
‫اﺧﺘﺒﺎر‬
‫العديد‬
‫ﻣﻦ‬
‫ﺧﻼل‬‫ﻋﺎدةﻣﻦ‬
‫اﺧﺘﺒﺎر‬
‫وهناك‬ ‫ﺧﻼل)‬
‫ﻋﺎدة‬
‫ﻣﻦ‬
‫ﯾﻜﻮن‬
‫ﯾﻜﻮن‬
‫ﻋﺎدة‬
‫‪training‬‬
‫ﻣﻦ‬ ‫ﯾﻜﻮن ﻋﺎدة‬
‫ﯾﻜﻮن‬
‫ﻣﻦ‬
‫اﻟﻌﺪﯾﺪ ﻣﻦ‬
‫اﻟﻌﺪﯾﺪ‬ ‫وھﻨﺎك‬
‫وھﻨﺎكﻣﻦ‬
‫وھﻨﺎك‬ ‫‪((discriminative‬‬
‫اﻟﻌﺪﯾﺪ‬ ‫‪ (discriminative‬وھﻨﺎك‬
‫‪discriminative‬‬ ‫‪training‬‬
‫‪training‬‬ ‫اﻷﻓﻀﻞ ))‬
‫‪training‬‬
‫اﻷﻓﻀﻞ‬ ‫اﺧﺘﯿﺎر‬
‫اﻷﻓﻀﻞ ‪)6‬‬
‫اﺧﺘﯿﺎر‬ ‫وﻣﻦﺛﻢﺛﻢ‬
‫وﻣﻦ‬ ‫أوزان‪،‬‬
‫اﺧﺘﯿﺎر‬ ‫أوزان‪ ،‬وﻣﻦ ﺛﻢ‬
‫أوزان‪،‬‬
‫اﻟﻌﺪﯾﺪ ﻣﻦ‬ ‫‪(discriminative‬‬ ‫‪.)Och,‬‬
‫‪training‬‬ ‫(‪)2003‬‬
‫اﻷﻓﻀﻞ‬ ‫الشكل‬
‫اﺧﺘﯿﺎر‬ ‫يفﺛﻢ‬ ‫املوضحة‬
‫وﻣﻦ‬ ‫أوزان‪،‬‬

‫‪88‬‬
‫‪88‬‬ ‫‪88‬‬ ‫‪88‬‬

‫‪-80-‬‬
‫اﻟﺨﻮارزﻣﯿﺎت اﻟﺘﻲ ﺗﻘﻮم ﺑﺬﻟﻚ أﺷﮭﺮھﺎ )‪ (MERT‬اﻟﻤﻮﺿﺤﺔ ﻓﻲ اﻟﺸﻜﻞ ‪Och, ) 6‬‬
‫‪.(2003‬‬

‫الشكل ‪ :6‬طريقة ضبط األوزان ألجزاء نظام الرتمجة‪.‬‬


‫اﻟﺸﻜﻞ ‪ :6‬طﺮﯾﻘﺔ ﺿﺒﻂ اﻷوزان ﻷﺟﺰاء ﻧﻈﺎم اﻟﺘﺮﺟﻤﺔ‪.‬‬
‫هذا وقد كان ملدينة امللك عبدالعزيز للعلوم والتقنية جهود يف بناء أنظمة ترمجة‬
‫ھﺬا وﻗﺪ ﻛﺎن ﻟﻤﺪﯾﻨﺔ اﻟﻤﻠﻚ ﻋﺒﺪاﻟﻌﺰﯾﺰ ﻟﻠﻌﻠﻮم واﻟﺘﻘﻨﯿﺔ ﺟﮭﻮد ﻓﻲ ﺑﻨﺎء أﻧﻈﻤﺔ ﺗﺮﺟﻤﺔ‬
‫خلدمة اململكة‪ .‬كان بدايتها التعاون مع رشكة آي يب إم الرائدة يف هذا املجال عام‬
‫اﻟﻤﺠﺎل ﻋﺎم‬ ‫ﻓﻲ ھﺬا‬
‫والفارسية إىل‬ ‫اﻟﺮاﺋﺪة‬
‫العربية‬ ‫منﺑﻲ إم‬
‫العربية إىل‬ ‫ترمجةآي‬
‫ﺷﺮﻛﺔ‬ ‫اﻟﺘﻌﺎونبناءﻣﻊنظام‬ ‫ﺑﺪاﯾﺘﮭﺎ‬
‫التعاون تم‬ ‫ﻛﺎن هذا‬ ‫اﻟﻤﻤﻠﻜﺔ‪.‬‬
‫وخالل‬ ‫‪2009‬م‪.‬‬ ‫ﻟﺨﺪﻣﺔ‬
‫بجودة‬
‫اﻟﻌﺮﺑﯿﺔ‬ ‫مرتمجةإﻟﻰ‬ ‫نصوص‬
‫اﻟﻌﺒﺮﯾﺔ‬ ‫ﺗﺮﺟﻤﺔعىلﻣﻦ‬
‫العتامدمها‬ ‫التجاريةءنظر ًا‬
‫ﻧﻈﺎم‬ ‫منافسة لألنظمة‬
‫اﻟﺘﻌﺎون ﺗﻢ ﺑﻨﺎ‬ ‫العربية بجودة‬
‫وﺧﻼل ھﺬا‬ ‫‪2009‬م‪.‬‬
‫النظام عىل الشبكة‪.‬‬
‫ً‬ ‫عالية جتاوزت ‪ 5‬مليون كلمة لكل لغة‪ .‬الشكل ‪ 7‬يوضح واجهة‬
‫واﻟﻔﺎرﺳﯿﺔ إﻟﻰ اﻟﻌﺮﺑﯿﺔ ﺑﺠﻮدة ﻣﻨﺎﻓﺴﺔ ﻟﻸﻧﻈﻤﺔ اﻟﺘﺠﺎرﯾﺔ ﻧﻈﺮا ﻻﻋﺘﻤﺎدھﻤﺎ ﻋﻠﻰ‬
‫ﻧﺼﻮص ﻣﺘﺮﺟﻤﺔ ﺑﺠﻮدة ﻋﺎﻟﯿﺔ ﺗﺠﺎوزت ‪ 5‬ﻣﻠﯿﻮن ﻛﻠﻤﺔ ﻟﻜﻞ ﻟﻐﺔ‪ .‬اﻟﺸﻜﻞ ‪ 7‬ﯾﻮﺿﺢ‬
‫واﺟﮭﺔ اﻟﻨﻈﺎم ﻋﻠﻰ اﻟﺸﺒﻜﺔ‪.‬‬

‫‪.)translate.kacst.edu.sa‬‬ ‫العربية (‬
‫‪.(translate.kacst.edu.sa‬‬ ‫إﻟﻰإىل‬
‫اﻟﻌﺮﺑﯿﺔ )‬ ‫والفارسية‬
‫العربيةواﻟﻔﺎرﺳﯿﺔ‬
‫مناﻟﻌﺒﺮﯾﺔ‬
‫ترمجةﻣﻦ‬
‫نظامﺗﺮﺟﻤﺔ‬
‫واجهةﻧﻈﺎم‬
‫‪:7‬واﺟﮭﺔ‬
‫الشكل‪:7‬‬
‫اﻟﺸﻜﻞ‬
‫‪89‬‬
‫‪ 5‬ﺗﻘﯿﯿﻢ ﺟﻮدة اﻟﺘﺮﺟﻤﺔ‬
‫‪-81-‬‬
‫ﯾﻌﺪ ﺗﻘﯿﯿﻢ أداء أﻧﻈﻤﺔ اﻟﺘﺮﺟﻤﺔ أﻣﺮاً ﺻﻌﺒﺎ ً وذﻟﻚ ﻟﺘﻌﺪد اﻟﺘﺮﺟﻤﺎت ﻣﻦ ﺷﺨﺺ ﻵﺧﺮ‬
‫)‪ .(subjective‬اﻟﻤﺜﺎل اﻟﺘﺎﻟﻲ داﺋﻤﺎ ً ﻣﺎ ﯾﺬﻛﺮ ﻟﺘﻮﺿﯿﺢ اﻟﻤﺸﻜﻠﺔ وھﻮ ﻣﺄﺧﻮذ ﻣﻦ‬
.(translate.kacst.edu.sa) ‫ واﺟﮭﺔ ﻧﻈﺎم ﺗﺮﺟﻤﺔ ﻣﻦ اﻟﻌﺒﺮﯾﺔ واﻟﻔﺎرﺳﯿﺔ إﻟﻰ اﻟﻌﺮﺑﯿﺔ‬:7 ‫اﻟﺸﻜﻞ‬

‫ ﺗﻘﯿﯿﻢ ﺟﻮدة اﻟﺘﺮﺟﻤﺔ‬5


‫ تقييم جودة الرتمجة‬-5
‫ﯾﻌﺪ ﺗﻘﯿﯿﻢ أداء أﻧﻈﻤﺔ اﻟﺘﺮﺟﻤﺔ أﻣﺮاً ﺻﻌﺒﺎ ً وذﻟﻚ ﻟﺘﻌﺪد اﻟﺘﺮﺟﻤﺎت ﻣﻦ ﺷﺨﺺ ﻵﺧﺮ‬
‫يعد تقييم أداء أنظمة الرتمجة أمر ًا صعب ًا وذلك لتعدد الرتمجات من شخص آلخر‬
‫ اﻟﻤﺜﺎل اﻟﺘﺎﻟﻲ ًداﺋﻤﺎ ً ﻣﺎ ﯾﺬﻛﺮ ﻟﺘﻮﺿﯿﺢ اﻟﻤﺸﻜﻠﺔ وھﻮ ﻣﺄﺧﻮذ ﻣﻦ‬.(subjective)
‫جمموعة‬ ‫ املثال التايل دائام ما يذكر لتوضيح املشكلة وهو مأخوذ من‬.)subjective(
‫ﺗﺮﺟﻤﺎتاجلمل‬ ‫ترمجاتﻋﺸﺮ‬
‫مقبولة هلذه‬ ‫عرش ھﻨﺎك‬
‫ﻻﺣﻆ أن‬
‫ هناك‬.‫أنم‬2001
‫ﻟﻌﺎمالحظ‬ (NIST
.‫م‬2001 ‫ﻧﯿﺴﺖ) )لعام‬
NIST‫ﺗﻘﯿﯿﻢ‬ ‫ﻣﺠﻤﻮﻋﺔ‬
( ‫نيست‬ ‫تقييم‬
.‫الصينية‬
.‫اﻟﺠﻤﻞ ﺑﺎﻟﻠﻐﺔ اﻟﺼﯿﻨﯿﺔ‬ ‫ﻣباللغة‬
‫ﻘﺒﻮﻟﺔ ﻟﮭﺬه‬

Israeli o�cials are responsible for airport security.


Israeli o-cials are responsible for airport security.
Israel is in charge of the security at this airport.
Israel is in charge of the security at this airport.
The security work for this airport is the responsibility of the Israel government.
The security work for this airport is the responsibility of the Israel
Israeli side was in charge of the security of this airport.
government.
Israel is responsible for the airport’s security.
Israeli side was in charge of the security of this airport.
is responsible for the airport’s security.
Israel is responsible for safety work at this airport.
Israel
Israel is responsible for safety work at this airport.
Israel presides over the security of the airport.

over the security of the airport.


Israel took charge of the airport security.
Israel presides
Israel took charge of the airport security.
90
The safety of this airport is taken charge of by Israel.
This airport’s security is the responsibility of the Israeli security
o-cials.

‫) ومدى‬adequacy( ‫هناك معياران لتقييم الرتمجة مها مدى الدقة يف نقل املعنى‬
‫ وقد تم اقرتاح العديد من األدوات لقياس دقة املعنى‬.)fluency( ‫سالسة الرتمجة‬
automatic(‫) و‬manual metrics( ‫والسالسة يمكن تصنيفها إىل جمموعتني‬
‫ وتعد املجموعة الثانية عملية أكثر وأقل كلفة نظر ًا لغياب العنرص البرشي‬.)metrics
‫ حيث إهنا تعتمد عىل ترمجات‬.)consistent( ‫فيها وثبات النتائج عند إعادة القياس‬
‫ ومن أبسط‬.‫) سابقة للنصوص املراد قياس أداء النظام فيها‬references( ‫احرتافية‬
:‫) والتي يمكن حساهبا كالتايل‬recall( ‫) و‬precision( ‫أدوات القياس‬

-82-
‫ﻋﻠﻰ‬
‫ﺗﻌﺘﻤﺪ ﻋﻠﻰ‬
‫إﻧﮭﺎ ﺗﻌﺘﻤﺪ‬
‫ﺣﯿﺚ إﻧﮭﺎ‬
‫‪ .(.(consistent‬ﺣﯿﺚ‬
‫اﻟﻘﯿﺎس ))‪consistent‬‬
‫إﻋﺎدة اﻟﻘﯿﺎس‬
‫ﻋﻨﺪ إﻋﺎدة‬
‫اﻟﻨﺘﺎﺋﺞ ﻋﻨﺪ‬
‫وﺛﺒﺎت اﻟﻨﺘﺎﺋﺞ‬
‫ﻓﯿﮭﺎ وﺛﺒﺎت‬
‫اﻟﺒﺸﺮي ﻓﯿﮭﺎ‬
‫اﻟﺒﺸﺮي‬
‫ﻓﯿﮭﺎ‪.‬‬
‫اﻟﻨﻈﺎم ﻓﯿﮭﺎ‪.‬‬
‫أداء اﻟﻨﻈﺎم‬
‫ﻗﯿﺎس أداء‬
‫اﻟﻤﺮاد ﻗﯿﺎس‬
‫ﻟﻠﻨﺼﻮص اﻟﻤﺮاد‬
‫ﺳﺎﺑﻘﺔ ﻟﻠﻨﺼﻮص‬
‫‪ ((references‬ﺳﺎﺑﻘﺔ‬
‫اﺣﺘﺮاﻓﯿﺔ ))‪references‬‬
‫ﺗﺮﺟﻤﺎت اﺣﺘﺮاﻓﯿﺔ‬
‫ﺗﺮﺟﻤﺎت‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﺣﺴﺎﺑﮭﺎ ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﯾﻤﻜﻦ ﺣﺴﺎﺑﮭﺎ‬
‫واﻟﺘﻲ ﯾﻤﻜﻦ‬
‫‪ ((recall‬واﻟﺘﻲ‬
‫‪ ((precision‬وو ))‪recall‬‬
‫اﻟﻘﯿﺎس ))‪precision‬‬
‫أدوات اﻟﻘﯿﺎس‬
‫أﺑﺴﻂ أدوات‬
‫وﻣﻦ أﺑﺴﻂ‬
‫وﻣﻦ‬
‫‪correct‬‬
‫‪correct words‬‬
‫‪words‬‬
‫‪precision‬‬ ‫=‬
‫‪precision = translation length‬‬
‫‪translation length‬‬
‫‪correct‬‬
‫‪correct words‬‬
‫‪words‬‬
‫‪recall‬‬
‫= ‪recall‬‬
‫‪= reference length‬‬
‫‪reference length‬‬
‫ﺳﻼﺳﺔ‬
‫ﻓﻲيفﺳﻼﺳﺔ‬ ‫ً‬
‫أﺳﺎﺳﺎ ًﺎ‬
‫ﯾﻌﺪيعدأﺳﺎﺳ‬ ‫واﻟﺬي‬ ‫اﻟﻜﻠﻤﺎت‬ ‫ﺗﺮﺗﯿﺐ‬ ‫ﺗﺠﺎھﻞ‬ ‫ﺿﻌﻔﮭﺎ‬ ‫ﻧﻘﺎط‬ ‫أﻛﺒﺮ‬
‫أنأنأﻛﺒﺮ‬
‫إﻻإالأن‬
‫سالسة‬ ‫أساس ًا‬
‫ﻓﻲ‬ ‫والذيﯾﻌﺪ‬
‫الكلامتواﻟﺬي‬
‫ترتيباﻟﻜﻠﻤﺎت‬
‫جتاهلﺗﺮﺗﯿﺐ‬‫ضعفهاﺗﺠﺎھﻞ‬
‫نقاطﺿﻌﻔﮭﺎ‬
‫أكربﻧﻘﺎط‬ ‫إﻻ‬
‫ﻣﻦمن‬ ‫اﻷدﻧﻰ‬
‫األدنى‬
‫ﻣﻦ‬ ‫احلداﻷدﻧﻰ‬ ‫اﻟﺤﺪ‬ ‫ﺗﻘﯿﺲ‬
‫تقيساﻟﺤﺪ‬ ‫واﻟﺘﻲ‬
‫‪ )((WER‬واﻟﺘﻲ‬
‫والتيﺗﻘﯿﺲ‬ ‫أداة))(‪WER‬‬
‫‪WER‬‬ ‫أداة‬
‫ﺧﻼل أداة‬
‫ﻣﻦ ﺧﻼل‬
‫خالل‬ ‫ذﻟﻚمن‬
‫ﻣﻦ‬ ‫ﻣﻌﺎﻟﺠﺔذلك‬
‫ذﻟﻚ‬ ‫وﯾﻤﻜﻦمعاجلة‬
‫ﻣﻌﺎﻟﺠﺔ‬ ‫ويمكن‬
‫وﯾﻤﻜﻦ‬ ‫اﻟﺘﺮﺟﻤﺔ‪.‬‬
‫الرتمجة‪.‬‬
‫اﻟﺘﺮﺟﻤﺔ‪.‬‬
‫كالتايل‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬
‫ﻛﺎﻟﺘﺎﻟﻲ‪:‬‬ ‫االحرتافية‬
‫اﻻﺣﺘﺮاﻓﯿﺔ‬
‫اﻻﺣﺘﺮاﻓﯿﺔ‬ ‫الرتمجة‬
‫اﻟﺘﺮﺟﻤﺔ‬
‫اﻟﺘﺮﺟﻤﺔ‬ ‫مثلﻣﺜﻞ‬
‫ﻣﺜﻞ‬ ‫لتصبح‬
‫ﻟﺘﺼﺒﺢ‬
‫ﻟﺘﺼﺒﺢ‬ ‫النظام‬
‫اﻟﻨﻈﺎمﺎم‬
‫اﻟﻨﻈ‬ ‫ترمجة‬
‫ﺗﺮﺟﻤﺔ‬
‫ﺗﺮﺟﻤﺔ‬ ‫لتحرير‬
‫ﻟﺘﺤﺮﯾﺮ‬
‫ﻟﺘﺤﺮﯾﺮ‬ ‫اﻟﺨﻄﻮاتالالزمة‬
‫اﻟﻼزﻣﺔ‬
‫اﻟﻼزﻣﺔ‬ ‫اخلطوات‬
‫اﻟﺨﻄﻮات‬
‫‪substitutions‬‬
‫‪substitutions +‬‬
‫‪+ insertions‬‬
‫‪insertions +‬‬
‫‪+ deletions‬‬
‫‪deletions‬‬
‫‪WER‬‬
‫= ‪WER‬‬
‫=‬ ‫‪reference‬‬ ‫‪length‬‬
‫‪reference length‬‬
‫آيآي‬
‫آي‬ ‫ﻓﻲ يف‬‫واتسون‬
‫ﻓﻲ‬ ‫أبحاث‬
‫واﺗﺴﻮن‬
‫واﺗﺴﻮن‬ ‫مركزأﺑﺤﺎث‬
‫أﺑﺤﺎث‬ ‫ﻣﺮﻛﺰ‬‫ﻣﻦمن‬
‫ﻣﺮﻛﺰ‬ ‫‪)BLEU‬‬
‫ﻣﻦ‬ ‫‪((BLEU‬‬
‫‪BLEU‬‬ ‫بلو (‬ ‫حالي ًا‬
‫ﺑﻠﻮ ))‬
‫ﺑﻠﻮ‬ ‫القياس‬
‫ﺣﺎﻟﯿﺎ ًﺎ ً‬
‫ﺣﺎﻟﯿ‬ ‫أدواتاﻟﻘﯿﺎس‬
‫اﻟﻘﯿﺎس‬ ‫أشهرأدوات‬
‫أدوات‬ ‫ومنأﺷﮭﺮ‬
‫أﺷﮭﺮ‬ ‫وﻣﻦ‬
‫وﻣﻦ‬
‫اقرتاحه‬
‫تم ﻣﺎﻣﺎ ﺗﻢﺗﻢ‬ ‫أﻧﮭﺎأوائل ما‬
‫أواﺋﻞ‬ ‫رغم أهنا من‬ ‫الرتمجة اآللية‬ ‫أغلب أبحاث‬ ‫تستخدم يف‬ ‫يب إم والتي‬
‫ﻣﻦ أواﺋﻞ‬
‫رﻏﻢ أﻧﮭﺎ ﻣﻦ‬
‫اﻵﻟﯿﺔ رﻏﻢ‬
‫اﻟﺘﺮﺟﻤﺔ اﻵﻟﯿﺔ‬
‫أﺑﺤﺎث اﻟﺘﺮﺟﻤﺔ‬
‫أﻏﻠﺐ أﺑﺤﺎث‬ ‫ﻓﻲ أﻏﻠﺐ‬ ‫ﺗﺴﺘﺨﺪم ﻓﻲ‬
‫واﻟﺘﻲ ﺗﺴﺘﺨﺪم‬
‫ﺑﻲ إمإم واﻟﺘﻲ‬
‫ﺑﻲ‬
‫العبارات‬ ‫مستوى‬ ‫عىل‬ ‫الرتمجة‬ ‫دقة‬ ‫قياس‬ ‫عىل‬ ‫وتقوم‬ ‫)‪.‬‬‫(‪Papineni et al., 2002‬‬
‫ﻣﺴﺘﻮى‬
‫ﻋﻠﻰ ﻣﺴﺘﻮى‬ ‫اﻟﺘﺮﺟﻤﺔ ﻋﻠﻰ‬
‫دﻗﺔ اﻟﺘﺮﺟﻤﺔ‬
‫ﻗﯿﺎس دﻗﺔ‬
‫ﻋﻠﻰ ﻗﯿﺎس‬
‫وﺗﻘﻮم ﻋﻠﻰ‬
‫‪ .(.(Papineni‬وﺗﻘﻮم‬
‫‪Papineni et‬‬ ‫‪et al.,‬‬
‫‪al., 2002‬‬
‫اﻗﺘﺮاﺣﮫ ))‪2002‬‬
‫اﻗﺘﺮاﺣﮫ‬
‫(‪ )n-grams‬كام ييل‪:‬‬
‫ﯾﻠﻲ‪:‬‬
‫ﻛﻤﺎ ﯾﻠﻲ‪:‬‬
‫‪ ((n-grams‬ﻛﻤﺎ‬
‫اﻟﻌﺒﺎرات ))‪n-grams‬‬
‫اﻟﻌﺒﺎرات‬
‫!‬
‫‪91‬‬
‫‪BLEU = BP ∗ exp‬‬ ‫) !‪𝜆𝜆! ∗ log (precision‬‬
‫‪91‬‬

‫!!!‬

‫‪translation length‬‬
‫‪BP = min(1,‬‬ ‫)‬
‫‪reference length‬‬

‫وﺗﻌﺮف )‪ (BP‬ﻋﻠﻰ أﻧﮭﺎ ﻋﻘﻮﺑﺔ اﻹﯾﺠﺎز ﻓﻜﻠﻤﺎ ﻛﺎن طﻮل اﻟﺘﺮﺟﻤﺔ أﻗﺼﺮ ﻣﻦ‬
‫وتعرف (‪ )BP‬عىل أهنا عقوبة اإلجياز فكلام كان طول الرتمجة أقرص من الرتمجة‬
‫اﻟﺘﺮﺟﻤﺔ اﻻﺣﺘﺮاﻓﯿﺔ ﻧﻘﺼﺖ ﻧﻘﺎط ﺑﻠﻮ واﻟﺘﻲ ﺗﺼﻞ إﻟﻰ ‪ 100‬ﻧﻘﻄﺔ ﻋﻨﺪ ﻣﻄﺎﺑﻘﺔ‬
‫االحرتافية نقصت نقاط بلو والتي تصل إىل ‪ 100‬نقطة عند مطابقة ترمجة النظام‬
‫أفضل ﺣﯿﺚ‬
‫أنظمة‬ ‫ﺑﺎﻷﻣﺮإناﻟﺴﮭﻞ‪،‬‬
‫ﻟﯿﺲحيث‬ ‫باألمر ﻧﻘﻄﺔ‬
‫السهل‪،‬‬ ‫وﺗﺤﻘﯿﻖ ﻛﻞ‬ ‫اﻻﺣﺘﺮاﻓﯿﺔ‪.‬‬
‫نقطة ليس‬ ‫ﻟﻠﺘﺮﺟﻤﺎت‬
‫وحتقيق كل‬ ‫ﺗﺮﺟﻤﺔ اﻟﻨﻈﺎم‬
‫االحرتافية‪.‬‬ ‫للرتمجات‬
‫‪Junczys-Dowmunt‬‬ ‫إﻟﻰ‪ 60et‬ﻧﻘﻄﺔ ) ‪et al.,‬‬
‫‪.)Junczys-Dowmunt‬‬ ‫ﺗﺼﻞ‪al.,‬‬
‫اﻟﺘﺮﺟﻤﺔ‪2016‬‬ ‫أﻧﻈﻤﺔ‬
‫‪ 60‬نقطة (‬ ‫أﻓﻀﻞ إىل‬ ‫إن‬
‫الرتمجة تصل‬
‫‪.(2016‬‬

‫‪ 6‬ﻋﺼﺮ ﺟﺪﯾﺪ‬

‫ﺧﻼل اﻟﺴﻨﻮات اﻟﻘﻠﯿﻠﺔ اﻟﻤﺎﺿﯿﺔ ﺣﺪث ﺗﻐﯿﺮ ﺟﺬري ﻓﻲ أﺑﺤﺎث اﻟﺘﺮﺟﻤﺔ اﻵﻟﯿﺔ‬
‫)‪ (paradigm shift‬ﻣﻦ اﻟﻤﻨﮭﺞ اﻹﺣﺼﺎﺋﻲ إﻟﻰ ﻣﺎ ﯾﻌﺮف ﺑﺎﻟﺘﺮﺟﻤﺔ اﻵﻟﯿﺔ‬
‫‪-83-‬‬
‫اﻟﻌﺼﺒﯿﺔ )‪ (neural machine translation‬اﻟﻤﻌﺘﻤﺪة ﻋﻠﻰ اﻟﺸﺒﻜﺎت اﻟﻌﺼﺒﯿﺔ‬
‫‪ -6‬عرص جديد‬
‫خالل السنوات القليلة املاضية حدث تغري جذري يف أبحاث الرتمجة اآللية‬
‫(‪ )paradigm shift‬من املنهج اإلحصائي إىل ما يعرف بالرتمجة اآللية العصبية (‪neural‬‬
‫‪ )machine translation‬املعتمدة عىل الشبكات العصبية العميقة (‪deep neural‬‬
‫‪ )networks‬يف ترمجة كامل اجلملة باستخدام نموذج واحد متكامل (‪end-to-end‬‬
‫‪ .)system‬إن استخدام الشبكات العصبية ليس باألمر اجلديد‪ ،‬فقد تم اقرتاح نامذج‬
‫مشاهبة ملا هو معمول به اآلن قبل أكثر من عقدين من الزمن (‪ )Forcada, 1997‬كام يف‬
‫الشكل ‪ .8‬إال أن تعقيدها تطلب حواسيب قوية لتدريبها عىل بيانات كافية وهو ما مل‬
‫يكن متوفر ًا‪ .‬لذلك كانت نتائج تلك النامذج ضعيفة مما أدى إىل هجران تلك األفكار‪.‬‬

‫الشكل‪ :8‬بنية لنظام ترمجة من مرحلتني‪ :‬تشفري ثم فك التشفري (‪)Forcada, 1997‬‬


‫اﻟﺸﻜﻞ‪ :8‬ﺑﻨﯿﺔ ﻟﻨﻈﺎم ﺗﺮﺟﻤﺔ ﻣﻦ ﻣﺮﺣﻠﺘﯿﻦ‪ :‬ﺗﺸﻔﯿﺮ ﺛﻢ ﻓﻚ اﻟﺘﺸﻔﯿﺮ )‪(Forcada, 1997‬‬
‫مع مرور السنوات زادت رسعة احلواسيب وبدأت تستبدل النامذج العصبية أجزاء‬
‫اﻟﻌﺼﺒﯿﺔ أﺟﺰاء‬
‫اﻟﻨﻤﺎذجاللغة يف‬
‫عن نمذجة‬‫ﺗﺴﺘﺒﺪل‬ ‫‪2007‬وﺑﺪأت‬
‫‪)Schwenk,‬‬ ‫اﻟﺤﻮاﺳﯿﺐ‬ ‫ﺳﺮﻋﺔ‬
‫هولغر شونك (‬ ‫زادتكورقة‬‫اﻟﺴﻨﻮاتالرتمجة‪،‬‬
‫ﻣﻊ ﻣﺮور من أنظمة‬
‫فضاءات مستمرة اعتامد ًا عىل فكرة (‪)Bengio and Ducharme, 2001‬‬
‫‪(Schwenk,‬والتيﻋﻦيقومﻧﻤﺬﺟﺔ اﻟﻠﻐﺔ‬ ‫ﻣﻦ أﻧﻈﻤﺔ اﻟﺘﺮﺟﻤﺔ‪ ،‬ﻛﻮرﻗﺔ ھﻮﻟﻐﺮ ﺷﻮﻧﻚ )‪2007‬‬
‫جوهرها عىل متثيل الكلامت بمتجهات (‪ )vectors‬ذات معنى داليل بدالً من أرقام‬
‫ﻓﻲ ﻓﻀﺎءات ﻣﺴﺘﻤﺮة اﻋﺘﻤﺎداً ﻋﻠﻰ ﻓﻜﺮة )‪(Bengio and Ducharme, 2001‬‬
‫‪-84-‬ﺑﻤﺘﺠﮭﺎت )‪ (vectors‬ذات ﻣﻌﻨﻰ دﻻﻟﻲ‬
‫واﻟﺘﻲ ﯾﻘﻮم ﺟﻮھﺮھﺎ ﻋﻠﻰ ﺗﻤﺜﯿﻞ اﻟﻜﻠﻤﺎت‬
‫ً‬ ‫ُ‬ ‫ً‬
‫اعتباطية يمكن تعلمها من نصوص كثرية ُعرفت الحق ًا بتضمني الكلامت (‪word‬‬
‫‪ )embedding‬كام هو موضح يف الشكل ‪.9‬‬

‫الشكل ‪ :9‬بنية شبكة عصبية لنمذجة اللغة من خالل متثيل سياق الكلمة يف متجه واحد‬
‫اﻟﺸﻜﻞ ‪ :9‬ﺑﻨﯿﺔ ﺷﺒﻜﺔ ﻋﺼﺒﯿﺔ ﻟﻨﻤﺬﺟﺔ اﻟﻠﻐﺔ ﻣﻦ ﺧﻼل ﺗﻤﺜﯿﻞ ﺳﯿﺎق اﻟﻜﻠﻤﺔ ﻓﻲ ﻣﺘﺠﮫ واﺣﺪ )‪(projection‬‬
‫بناء عليه (‪)Schwenk, 2007‬‬ ‫احتامليةءالكلمة‬ ‫حساب‬ ‫ﺣﺴﺎب ومن ثم‬
‫ﻋﻠﯿﮫ ) ً‪(Schwenk, 2007‬‬ ‫اﻟﻜﻠﻤﺔ ﺑﻨﺎ ً‬ ‫اﺣﺘﻤﺎﻟﯿﺔ‬ ‫(‪)projection‬‬
‫وﻣﻦ ﺛﻢ‬
‫التجارب حتسن ًا ًكبري ًا يف الرتمجة‪ ،‬إال أن تبنيها كان حمدود ًا نظر ًا للكلفة‬
‫ﻣﺤﺪوداً ﻧﻈﺮاً‬ ‫وقد أظهرت‬
‫وﻗﺪ أظﮭﺮت اﻟﺘﺠﺎرب ﺗﺤﺴﻨﺎ ً ﻛﺒﯿﺮا ﻓﻲ اﻟﺘﺮﺟﻤﺔ‪ ،‬إﻻ أن ﺗﺒﻨﯿﮭﺎ ﻛﺎن‬
‫احلوسبية القائمة بشكل رئيس عىل حساب املصفوفات‪ .‬هذا وقد ظهرت جتارب‬
‫وﻗﺪ ظﮭﺮت‬ ‫‪ ).GPUs‬ھﺬا‬
‫الرسيعة يف‬ ‫اﻟﻤﺼﻔﻮﻓﺎت‬
‫ﺣﺴﺎبالرسومات (‬ ‫عىل ﻋﻠﻰ‬
‫وحدات معاجلة‬ ‫رﺋﯿﺲ‬ ‫ﺑﺸﻜﻞ‬
‫العصبية‬ ‫الشبكات‬‫اﻟﻘﺎﺋﻤﺔ‬ ‫ﻟﻠﻜﻠﻔﺔ اﻟﺤﻮﺳﺒﯿﺔ‬
‫لتدريب هذه‬
‫معاجلة املصفوفات‪ ،‬إال أن عدم توفرها لكثري من الباحثني حال دون انتشارها‪.‬‬
‫ﺗﺠﺎرب ﻟﺘﺪرﯾﺐ ھﺬه اﻟﺸﺒﻜﺎت اﻟﻌﺼﺒﯿﺔ ﻋﻠﻰ وﺣﺪات ﻣﻌﺎﻟﺠﺔ اﻟﺮﺳﻮﻣﺎت )‪(GPUs‬‬
‫اﻟﺴﺮﯾﻌﺔ ﻓﻲ ﻣﻌﺎﻟﺠﺔ اﻟﻤﺼﻔﻮﻓﺎت‪ ،‬إﻻ أن ﻋﺪم ﺗﻮﻓﺮھﺎ ﻟﻜﺜﯿﺮ ﻣﻦ اﻟﺒﺎﺣﺜﯿﻦ ﺣﺎل دون‬
‫‪-85-‬‬
‫اﻧﺘﺸﺎرھﺎ‪.‬‬
‫وقد كان لورقة (‪ )Devlin et al., 2014‬أثر عىل املجتمع البحثي للنتائج القوية التي‬
‫عرضتها ومنحت جائزة أفضل ورقة يف مؤمتر (‪ .)ACL‬فقد أظهرت قدرة نامذج اللغة‬
‫املبنية عىل الشبكات العصبية عىل حتسني أفضل أنظمة الرتمجة من اللغة العربية والصينية‬
‫إىل اإلنجليزية‪ .‬ففي محلة (‪ )NIST OpenMT‬لتقييم أنظمة الرتمجة عام ‪2012‬م‬
‫حقق املركز األول يف الرتمجة من العربية إىل اإلنجليزية ‪ 49.5‬نقطة بلو (‪)BLEU‬‬
‫واستطاعت الورقة ختطي ذلك بأكثر من ‪ 3‬نقاط حمقق ًة ‪ 52.8‬نقطة‪.‬‬
‫ويمكن اعتبار ورقة (‪ )Kalchbrenner and Blunsom, 2013‬حجر األساس‬
‫ألنظمة الرتمجة اآللية العصبية من خالل طرح نموذج متكامل للرتمجة (‪end-to-end‬‬
‫‪ .)encoder-decoder‬وقد تم استخدام شبكات عصبية التفافية (‪convolutional‬‬
‫‪ )neural networks‬لتشفري اجلملة املراد ترمجتها (‪ )encoding‬ومن ثم فكها‬
‫(‪ )decoding‬لتوليد الرتمجة من خالل شبكات عصبية متكررة (‪recurrent neural‬‬
‫‪.)networks‬‬
‫وبالرغم من نجاحات الشبكات العصبية إال أهنا مل تستطع التفوق عىل املنهج‬
‫التقليدي يف ترمجة اجلمل الطويلة‪ .‬وقد ُطرحت العديد من احللول أبرزها استخدام‬
‫(‪ )LSTM or GRU units‬وهي عبارة عن وحدات عصبية قادرة عىل التذكر‬
‫(‪ .)Sutskever et al., 2014; Cho et al., 2014‬إال أن النموذج يف ذلك الوقت‬
‫كان قائ ًام عىل تشفري اجلملة املراد ترمجتها إىل متجه ذي حجم ثابت (الشكل ‪ ،)10‬سوا ًء‬
‫طالت اجلملة أم قرصت‪ ،‬وهو ما ُعد عقبة أمام ترمجة اجلمل الطويلة‪.‬‬

‫‪-86-‬‬
‫الشكل ‪ :10‬شبكة عصبية متكررة لشفري اجلملة يف متجه ثابت احلجم ثم ترمجتها (‪)Cho et al., 2014‬‬
‫‪(Cho et al.,‬‬ ‫‪2014‬‬
‫املوضحة‬ ‫‪mechanism‬ﺗﺮﺟﻤﺘﮭﺎ )‬
‫‪)attention‬‬ ‫ﺛﺎﺑﺖ اﻟﺤﺠﻢ ﺛﻢ‬ ‫االنتباهﻣﺘﺠﮫ‬
‫الفعالة (‬ ‫اﻟﺠﻤﻠﺔ ﻓﻲ‬ ‫باحثونﻟﺸﻔﯿﺮ‬
‫بابتكار آلية‬ ‫ﻣﺘﻜﺮرة‬ ‫ﻋﺼﺒﯿﺔ‬
‫وقد قام‬ ‫اﻟﺸﻜﻞ ‪ :10‬ﺷﺒﻜﺔ هذا‬
‫‪(attention‬‬ ‫الطويلة ()‪et al., 2015‬‬
‫‪mechanism‬‬
‫‪.)Bahdanau‬‬ ‫اجلملاﻟﻔﻌﺎﻟﺔ‬ ‫عقبة ترمجة‬
‫اﻻﻧﺘﺒﺎه‬ ‫ختطتآﻟﯿﺔ‬ ‫‪ 11‬والتي‬
‫ﺑﺎﺑﺘﻜﺎر‬ ‫ھﺬا وﻗﺪ ﻗﺎميف الشكل‬
‫ﺑﺎﺣﺜﻮن‬
‫وخالل سنتني حتول املجتمع البحثي للمنهج اجلديد القائم عىل الشبكات العصبية‪ .‬ففي‬
‫‪Bahdanau‬‬
‫مقدم) للتقييم‬
‫اﻟﻄﻮﯾﻠﺔ‬ ‫رصف (اﻟﺠﻤﻞ‬
‫‪)pure neural‬‬ ‫عصبيﺗﺮﺟﻤﺔ‬
‫ﺗﺨﻄﺖفقطﻋﻘﺒﺔ‬ ‫واﻟﺘﻲ‬
‫نظام واحد‬ ‫‪ 11‬هناك‬ ‫عاماﻟﺸﻜﻞ‬
‫‪2015‬م كان‬ ‫اﻟﻤﻮﺿﺤﺔ ﻓﻲ‬
‫األنظمة‬
‫اﻟﻘﺎﺋﻢ ﻋﻠﻰ‬ ‫ﻟﻠﻤﻨﮭﺞأغلب‬
‫اﻟﺠﺪﯾﺪ‬ ‫‪2017‬م حتولت‬
‫اﻟﻤﺠﺘﻤﻊعاماﻟﺒﺤﺜﻲ‬
‫‪ ،)WMT‬ويف‬‫املعروف (‬
‫ﺗﺤﻮل‬ ‫وﺧﻼلاآلليةﺳﻨﺘﯿﻦ‬
‫مؤمتر الرتمجة‬
‫‪al., 2015‬يف‪.(et‬‬
‫املقدمة يف املؤمتر إىل الشبكات العصبية (‪.)Koehn, 2017‬‬
‫اﻟﺸﺒﻜﺎت اﻟﻌﺼﺒﯿﺔ‪ .‬ﻓﻔﻲ ﻋﺎم ‪2015‬م ﻛﺎن ھﻨﺎك ﻧﻈﺎم واﺣﺪ ﻓﻘﻂ ﻋﺼﺒﻲ ﺻﺮف‬
‫)‪ (pure neural‬ﻣﻘﺪم ﻟﻠﺘﻘﯿﯿﻢ ﻓﻲ ﻣﺆﺗﻤﺮ اﻟﺘﺮﺟﻤﺔ اﻵﻟﯿﺔ اﻟﻤﻌﺮوف )‪ ،(WMT‬وﻓﻲ‬
‫ﻋﺎم ‪2017‬م ﺗﺤﻮﻟﺖ أﻏﻠﺐ اﻷﻧﻈﻤﺔ اﻟﻤﻘﺪﻣﺔ ﻓﻲ اﻟﻤﺆﺗﻤﺮ إﻟﻰ اﻟﺸﺒﻜﺎت اﻟﻌﺼﺒﯿﺔ‬
‫‪-87-‬‬
‫)‪.(Koehn, 2017‬‬
‫الشكل ‪ :11‬شبكة عصبية للرتمجة بآلية االنتباه (‪)Bahdanau et al., 2015‬‬
‫اﻟﺸﻜﻞ ‪ :11‬ﺷﺒﻜﺔ ﻋﺼﺒﯿﺔ ﻟﻠﺘﺮﺟﻤﺔ ﺑﺂﻟﯿﺔ اﻻﻧﺘﺒﺎه )‪(Bahdanau et al., 2015‬‬
‫لقد كانت آلية االنتباه فعالة لدرجة أن فريق ًا بحثي ًا من رشكة قوقل نرش بحث ًا‬
‫شبكاتﺑﺤﺜﺎ ً ﯾﺼﻒ‬
‫ﻗﻮﻗﻞإىل ﻧﺸﺮ‬
‫ﺷﺮﻛﺔاحلاجة‬
‫معتمد ًاﺑﺤﺜﯿﺎ ً‬
‫عليهاﻣﻦ‬
‫فقط دون‬
‫‪)Transformer‬ﻓﺮﯾﻘﺎ ً‬
‫ﻓﻌﺎﻟﺔ( ﻟﺪرﺟﺔ أن‬‫اﻻﻧﺘﺒﺎه ًا أسامه‬
‫يصف نموذج‬ ‫ﻟﻘﺪ ﻛﺎﻧﺖ آﻟﯿﺔ‬
‫ٍ‬
‫متواز‬ ‫النموذج بشكل‬
‫إﻟﻰ ﺷﺒﻜﺎت‬ ‫اﻟﺤﺎﺟﺔ‬ ‫بتدريب دون‬
‫سمح ﻓﻘﻂ‬
‫‪CNN‬اً) مماﻋﻠﯿﮭﺎ‬‫التفافية (ﻣﻌﺘﻤﺪ‬ ‫متكررة (‪ )RNN‬أو‬
‫‪(Transformer‬‬ ‫عصبية )‬
‫ﻧﻤﻮذﺟﺎ ً أﺳﻤﺎه‬
‫(‪ )parallelization‬وبوقت أقل بكثر من السابق (‪.)Vaswani et al., 2017‬‬
‫اﻟﺘﻔﺎﻓﯿﺔ ً)‪ (CNN‬ﻣﻤﺎ ﺳﻤﺢ ﺑﺘﺪرﯾﺐ اﻟﻨﻤﻮذج ﺑﺸﻜﻞ‬
‫ً‬
‫ﻋﺼﺒﯿﺔ ﻣﺘﻜﺮرة )‪ (RNN‬أو‬
‫ويعترب هذا املجال البحثي نشطا جدا‪ ،‬وال يسعنا يف هذا الفصل تغطيته وإنام تم ذكر‬
‫عملت‪Vaswani‬‬
‫والتقنية ‪et‬‬
‫للعلوم ‪al.,‬‬
‫اﻟﺴﺎﺑﻖ )‬ ‫امللكﻣﻦ‬
‫عبدالعزيز‬ ‫وﺑﻮﻗﺖإىل أنأﻗﻞمدينةﺑﻜﺜﺮ‬ ‫‪(parallelization‬‬
‫وجتدر اإلشارة‬ ‫ﻣﺘﻮاز ) أهم األبحاث فيه‪.‬‬
‫ٍ‬
‫ً‬
‫مؤخرا عىل جتارب مكثفة لبناء أنظمة ترمجة عصبية من اللغة العربية إىل اللغة اإلنجليزية‬
‫(‪ )Alrajeh, 2018‬والعكس كذلك‪ ،‬حيث إن متوسط جودة هذه األنظمة قارب ‪60‬‬
‫‪.(2017‬‬

‫وﯾﻌﺘﺒﺮ ھﺬا اﻟﻤﺠﺎل اﻟﺒﺤﺜﻲ ﻧﺸﻄﺎ ً ﺟﺪاً‪ ،‬وﻻ ﯾﺴﻌﻨﺎ ﻓﻲ ھﺬا اﻟﻔﺼﻞ ﺗﻐﻄﯿﺘﮫ وإﻧﻤﺎ ﺗﻢ‬
‫‪-88-‬إﻟﻰ أن ﻣﺪﯾﻨﺔ اﻟﻤﻠﻚ ﻋﺒﺪاﻟﻌﺰﯾﺰ ﻟﻠﻌﻠﻮم‬
‫ذﻛﺮ أھﻢ اﻷﺑﺤﺎث ﻓﯿﮫ‪ .‬وﺗﺠﺪر اﻹﺷﺎرة‬
‫نقطة بلو (‪ .)BLEU‬ومما يسهل عىل الباحثني واملطورين االستفادة واملسامهة يف هذا‬
‫املجال وجود كثري من األنظمة مفتوحة املصدر‪ .‬أهم تلك األنظمة وروابط الوصول هلا‬
‫كالتايل (‪:)Koehn, 2017‬‬
‫‪Nematus (based on Tensorflow): https://github.com/‬‬
‫‪EdinburghNLP/nematus‬‬
‫‪Marian (a C++ re-implementation of Nematus): https://marian-nmt.‬‬
‫‪github.io/‬‬
‫‪OpenNMT (based on Torch/pyTorch): http://opennmt.net/‬‬
‫‪xnmt (based on DyNet): https://github.com/neulab/xnmt‬‬
‫‪Sockeye (based on MXNet): https://github.com/awslabs/sockeye‬‬
‫‪T2T (based on Tensorflow): https://github.com/tensorflow/‬‬
‫‪tensor2tensor‬‬

‫‪ -7‬أبرز التحديات‬
‫رغم قدم مشكلة الرتمجة اآللية والقفزات يف سبيل حلها إال أنه ما زال هناك الكثري‬
‫من التحديات‪ .‬وسنتطرق إىل ثالثة حتديات تواجه املنهج احلديث (‪)neural approach‬‬
‫يف الرتمجة (‪.)Koehn, 2017‬‬
‫التحدي األول ضعف جودة الرتمجة عند عدم تطابق املجال بني النظام والنصوص‬
‫املراد ترمجتها (‪ .)domain mismatch‬من املشاكل املعروفة أن العبارات ختتلف ترمجتها‬
‫من جمال آلخر فرتمجة األخبار ليست كرتمجة املقاالت العلمية لذلك من املهم تدريب‬
‫النظام عىل نصوص من نفس املجال‪ .‬إال أنه كثري ًا ما تتوافر النصوص خارج املجال‬
‫املستهدف فيتم تدريب النظام عليها ثم تكييفه عىل املجال املحدد باستخدام نصوص‬
‫قليلة (‪ .)domain adaptation‬وقد أظهر التجارب أن األنظمة اإلحصائية التقليدية‬
‫تعطي نتائج جيدة خارج املجال الذي تدربت عليه بعكس األنظمة العصبية‪.‬‬
‫التحدي الثاين احلاجة لنصوص كثرية لتدريب النظام قبل رؤية أي حتسن (‪amount‬‬
‫‪ .)of training data‬فرغم أن أداء األنظمة العصبية ختطى األنظمة اإلحصائية إال‬

‫‪-89-‬‬
‫أن ذلك مرشوط بتوفر نصوص كثرية للتدريب تتجاوز العرشة ماليني كلمة‪ .‬لذلك‬
‫مازالت األنظمة العصبية تواجه حتدي ًا يف ترمجة اللغات قليلة املصادر (‪low-resource‬‬
‫‪.)languages‬‬
‫التحدي الثالث حساسية النظام لنصوص التدريب التي ترمجتها غري دقيقة أو غري‬
‫سليمة لغوي ًا (‪ .)noisy data‬إن احلصول عىل بيانات تدريب عالية اجلودة مكلف‬
‫للغاية لذلك أحيانا يتم االعتامد عىل نصوص فيها ترمجات معيبة‪ .‬ومما هو معروف عن‬
‫األنظمة اإلحصائية أهنا صلبة جتاه البيانات املشوشة‪ ،‬ففي إحدى التجارب تم تشويش‬
‫نصف بيانات التدريب ومع ذلك حافظ النظام عىل أدائه‪ ،‬وما فقده أقل من نقطة بلو‬
‫(‪ )BLEU‬واحدة بخالف األنظمة العصبية التي تعترب حساسة للتشويش‪.‬‬

‫‪ -8‬خامتة‬
‫قدمنا يف هذا الفصل نبذة خمترصة عن تاريخ الرتمجة اآللية والذي بدأ مع نشوء علم‬
‫احلاسب‪ .‬ثم تطرقنا إىل مناهج الرتمجة اآللية والتي تتدرج يف مستوى معاجلتها للغة بدء ًا‬
‫من الرتمجة املبارشة إىل الرتمجة التجريدية‪ .‬كانت الرتمجة اآللية اإلحصائية أهم املناهج‬
‫املهيمنة حتى وقت قريب إىل أن دخلت تقنيات التعلم العميق وأحدثت نقلة يف هذا‬
‫املجال دخلت معها الرتمجة اآللية عرص ًا جديد ًا ال نزال نعيش أحداثه‪.‬‬
‫عىل مدى عدة عقود تطورت الرتمجة اآللية حتى أصبحت تقنية يستخدمها اجلميع‬
‫ويعتمد عليها املرتمجون يف تسهيل عملهم‪ .‬وكثري من الرشكات كقوقل ومايكروسوفت‬
‫تعرض خدمات الرتمجة بأسعار متدنية أو جمانية ألشهر اللغات مما أتاح فرصة التواصل‬
‫واالطالع عىل ما عند األمم األخرى‪.‬‬
‫وقد تم التطرق إىل أهم األبحاث‪ ،‬إال أن هذا املجال ال زال نشط ًا بحثي ًا‪ ،‬والكثري من‬
‫التجارب تنرش سنوي ًا عىل عدد من اللغات كاألوربية والصينية والعربية‪ .‬وما زال هناك‬
‫فرص لتحسني أداء الرتمجة اآللية لتجاوز التحديات الكثرية التي تطرقنا إىل بعضها‪.‬‬

‫‪-90-‬‬
‫املراجع‬
Al-Onaizan, Yaser, Jan Curin, Michael Jahr, Kevin Knight, John La-
erty, Dan Melamed, Franz-Josef Och, David Purdy, Noah
A. Smith, and David Yarowsky. (1999). Statistical machine
translation. Technical report, Johns Hopkins University,
Summer Workshop.
Alrajeh, Abdullah. (2018). A Recipe for Arabic-English Neural
Machine Translation. In Computing Research Repository,
arXiv: 808.06116.
Bahdanau, Dzmitry, Kyunghyun Cho, and Yoshua Bengio. (2015).
Neural machine translation by jointly learning to align and
translate. In Proceedings of the International Conference on
Learning Representations (ICLR).
Bengio, Yoshua, Réjean Ducharme. (2001). A neural probabilistic
language model. In: Proceedings of Advances in Neural
Information Processing Systems, vol. 13, 932-938.
Brown, Peter F., Vincent J. Della Pietra, Stephen A. Della Pietra,
and Robert L. Mercer. (1993). The mathematics of statistical
machine translation: Parameter estimation. Computational
Linguistics, 19(2), 263-311.
Chiang, David. (2007). Hierarchical phrase-based translation.
Computational Linguistics, 33(2).
Cho, Kyunghyun, Bart van Merrienboer, Caglar Gulcehre, Dzmitry
Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua
Bengio. (2014). Learning phrase representations using
rnn encoder–decoder for statistical machine translation. In
Proceedings of the 2014 Conference on Empirical Methods in
Natural Language Processing (EMNLP), pages 1724– 1734.
Devlin, Jacob, Rabih Zbib, Zhongqiang Huang, Thomas Lamar,
Richard Schwartz, and John Makhoul. (2014). Fast and robust
neural network joint models for statistical machine translation.

-91-
In Proceedings of the 52nd Annual Meeting of the Association
for Computational Linguistics (Volume 1: Long Papers), pages
1370–1380.
Forcada, Mikel and Ramón Ñeco. (1997). Recursive hetero-
associative memories for translation. In Biological and
Artificial Computation: From Neuroscience to Technology,
Springer, pages 453–462.
Junczys-Dowmunt, Marcin, Tomasz Dwojak, and Hieu Hoang. (2016).
Is neural machine translation ready for deployment? A case
study on 30 translation directions. In Proceedings of the 13th
International Workshop on Spoken Language Translation.
Kalchbrenner, Nal and Phil Blunsom. (2013). Recurrent continuous
translation models. In Proceedings of the Conference on
Empirical Methods in Natural Language Processing, pages
1700–1709.
Koehn, Philipp. (2010). Statistical Machine Translation. Cambridge
University Press.
Koehn, Philipp. (2017). Neural Machine Translation. In Computing
Research Repository, arXiv: 1709.07809.
Koehn, Philipp and Rebecca Knowles. (2017). Six challenges for
neural machine translation. In Proceedings of the First
Workshop on Neural Machine Translation, pages 28–39.
Koehn, Philipp, Hieu Hoang, Alexandra Birch, Chris Callison-
Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan,
Wade Shen, Christine Moran, Richard Zens, Christopher J.
Dyer, Ondˇrej Bojar, Alexandra Constantin, and Evan Herbst.
(2007). Moses: Open source toolkit for statistical machine
translation. In Proceedings of the 45th Annual Meeting of the
Association for Computational Linguistics Companion Volume
Proceedings of the Demo and Poster Sessions, pages 177–180.

-92-
Och, Franz Josef. (2003). Minimum error rate training in statistical
machine translation. In Proceedings of the 41st Annual
Meeting of the Association for Computational Linguistics,
pages 160–167.
Papineni, Kishore, Salim Roukos, Todd Ward, and Wei-Jing Zhu.
(2002). BLEU: a method for automatic evaluation of machine
translation. In Proceedings of 40th Annual Meeting of the
Association for Computational Linguistics, pages 311–318.
Schwenk, Holger. (2007). Continuous space language models.
Computer Speech and Language, 3 (21), 492–518.
Sutskever, Ilya, Oriol Vinyals, and Quoc V Le. (2014). Sequence to
sequence learning with neural networks. In Z. Ghahramani,
M. Welling, C. Cortes, N. D. Lawrence, and K. Q. Weinberger,
editors, Advances in Neural Information Processing Systems,
pages 3104–3112.
Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion
Jones, Aidan Gomez and, Lukasz Kaiser and Illia Polosukhin.
(2017). Attention is All you Need. In Advances in Neural
Information Processing Systems 30, 5998-6008.
Vauquois, Bernard. (1968). A survey of formal grammars and
algorithms for recognition and transformation in mechanical
translation. In Proceedings of IFIP Congress, 1114-1122.
Weaver, Warren. (1947). Letter to Norbert Wiener.

-93-
-94-
‫الفصل الرابع‬
‫منذجة الكلمة العربية‬
‫خوارزميات الذكاء االصطناعي يف حتليل‬
‫وتوزيعيا‬
‫ً‬ ‫الكلمة العربية لغو ًيا‬

‫د‪ .‬عبدالرمحن بن حممد العصيمي‬

‫‪-95-‬‬
-96-
‫ملخص الفصل‬
‫متثل الكلمة ركيزة مهمة يف فهم واستيعاب اخلطاب املكتوب‪ .‬فال عجب أن نجد‬
‫تصب يف حتليل اجلوانب املختلفة للكلمة أو حتاول متثيل الكلمة اللغوية‬
‫ُّ‬ ‫أبحا ًثا كثري ًة‬
‫بشكل يفهمه احلاسب اآليل‪ .‬هيدف هذا الفصل إىل بناء مقدمة لغري املتخصص لفهم‬
‫أحدث اخلوارزميات املستخدمة يف بناء النامذج احلاسوبية للكلمة العربية الفصيحة‬
‫املكتوبة‪ .‬كام حياول تفسري أسباب الصعوبات التي تكتنف نمذجة الكلمة العربية حتديدً ا‪،‬‬
‫ومرورا بغناها الرصيف وانتها ًء بمستويات الغموض‬
‫ً‬ ‫بد ًءا بنظامها الرصيف الغري خطي‬
‫العالية يف النص العريب‪ .‬كام يقدِّ م نمطني مشهورين لتحليل الكلمة‪ :‬اللغوي والتوزيعي‪،‬‬
‫ويقارن بينهام‪ ،‬وذلك عرب مقدمة لكل نمط وحتليل اخلوارزميات املستخدمة وأشهر‬
‫األدوات املتاحة‪ .‬ويف اخلتام‪ ،‬نسلط الضوء مرة أخرى عىل قصور بعض اخلوارزميات‬
‫عند حتليل ونمذجة اللغة العربية‪ ،‬وسبل ووسائل مقرتحة ملعاجلة أوجه القصور‪.‬‬

‫د‪ .‬عبدالرمحن بن حممد العصيمي‬


‫أستاذ مساعد يف كلية احلاسب بجامعة اإلمام حممد بن سعود اإلسالمية‪ ،‬ومهتم‬
‫وباحث يف جمال معاجلة اللغة العربية حاسوب ًيا‪ ،‬وشغوف بالربجمة وتطوير األنظمة‪.‬‬
‫نرش جمموعة من األوراق يف جمالت ومؤمترات علمية‪ ،‬وقدم حمارضات يف العديد من‬
‫امللتقيات‪ .‬نرش أدوات حاسوبية تُعنى بمعاجلة اللغة العربية آل ًيا برخصة متاحة للكل‪.‬‬

‫‪-97-‬‬
‫‪ -1‬مقدمة‬
‫كبريا يف آخرين عقدين من الزمن‪ .‬فلم‬
‫تطورا ً‬
‫ً‬ ‫تطورت خوارزميات احلاسب اآليل‬
‫قادرا عىل تنفيذ سلسلة من العمليات التي يمليها له املربمج‪ ،‬بل‬
‫يعد احلاسب فقط ً‬
‫وقادرا عىل اختاذ القرار من تلقاء نفسه‪ .‬والختاذ القرار بشكل صحيح‪ ،‬البد‬
‫ً‬ ‫أصبح ذك ًيا‬
‫من طرق ووسائل لتقييم املعطيات وذلك من أجل اختاذ أفضل القرارات‪.‬‬
‫يمكننا تعريف تعلم اآللة كالتايل‪« :‬االستمرار يف تطوير مهمة ما (م) بناء عىل خربة‬
‫ما (خ) باعتبار وحدة تقييم أداء معينة (ق)» )‪ . (Mitchell, 1997‬فمثال إذا كانت‬
‫املهمة (م) هي التعرف عىل جنس اإلنسان يف صورة ما‪ ،‬واخلربة (خ) التي اكتسبها‬
‫احلاسب عرب إعطائه جمموعتني من الصور‪ :‬رجال ونساء‪ ،‬فإن خوارزميات تعلم اآللة‬
‫ستستمر يف حماولة بناء جمموعة من النامذج (النمذجة) يستطيع من خالهلا احلاسب أن‬
‫يتنبأ أو يتوقع اجلنس من الصورة املعطاة‪ .‬وتكون مهمة وحدة التقييم اختيار أفضل‬
‫نموذج من هذه النامذج املستخرجة‪.‬‬

‫‪ 1.1‬نمذجة اللغة‬
‫لكن ما املقصود بنمذجة اللغة حاسوب ًيا؟ يمكن للحاسب اآليل عرب خوارزميات‬
‫الذكاء االصطناعي بناء متثيل معني للغة وذلك الستخدامه يف تطبيقات الحقة‪ .‬فمثال‪،‬‬
‫أحد التطبيقات املشهورة واملستخدمة بكثرة يف اهلواتف املتنقلة هي تطبيق لوحة املفاتيح‬
‫الذكية؛ والتي تتيح للمستخدم عند كتابة كلمة‪ ،‬اختيار كلمة تالية هلا‪ .‬فمثال‪ ،‬عند كتابة‬
‫كلمة «السالم» يتيح احلاسب عدة اختيارات مثل «عليكم» أو «عليك»‪ .‬لكن كيف‬
‫يمكن للحاسب «تو ُّقع» الكلمة التالية؟ لقد بنت خوارزمية الذكاء االصطناعي(مثال‬
‫ال لكل كلمة يف‬‫خوارزمية ‪ Skip-gram‬والتي تتنبأ بالسياق من الكلمة املعطاة) متثي ً‬
‫اللغة حيدد موقعها من اللغة ككل‪ ،‬لذا فهو يستطيع أن يتنبأ بأقرب الكلامت الالحقة هلا‪.‬‬
‫وحينام نريد نمذجة لغة ما كاللغة العربية‪ ،‬فإن املهمة تكون عادة أصعب وأعقد؛ ذلك‬
‫أن حتليل اللغة عادة ما يصحبها غموض يف مستويات لغوية عدة كالصوت والرصف‬
‫والنحو واملعجم‪ .‬فمثال الضمري يف قولك‪« :‬قال زيد أنه مريض» غري معلوم؛ فقد يكون‬
‫املريض زيدً ا أو رجال مقصو ًدا آخر‪ٌ .‬‬
‫مثال آخر فيام يروى عن الرسول ‪-‬صىل اهلل عليه‬ ‫ُ‬

‫‪-98-‬‬
‫فتوهم املخا َطب أهنم من ماء العراق‪ .‬والغموض معلوم‬ ‫وسلم‪ -‬قوله‪« :‬نحن من ماء»‪ّ ،‬‬
‫خصوصا عند غياب التشكيل أو الرتقيم أو اهلمزات‪ .‬وقد‬ ‫ً‬ ‫يف النص العريب املكتوب‪،‬‬
‫قديم إىل اإلعجام (إضافة النقاط إىل احلروف) من أجل إزالة جزء من الغموض‬ ‫عمدوا ً‬
‫(ومثله التشكيل)‪ .‬إىل جانب الغموض‪ ،‬هناك سبب آخر لصعوبة نمذجة اللغة‪ ،‬أال‬
‫وهو أن املتحدثون قد ال يلتزمون بجمل صحيحة نحو ًيا ودالل ًيا وإمالئ ًيا‪ .‬واألمثلة‬
‫عىل ذلك كثرية‪ ،‬مثل األخطاء اإلعرابية واإلمالئية وأحيانًا الداللية أو املعجمية؛ فقد‬
‫يستخدم مفردة لرييد به مفرد ًة أخرى‪.‬‬

‫‪ 1.2‬نمذجة الكلمة العربية‬


‫هيدف هذا الفصل إىل بناء مقدمة لغري املتخصص يف كيفية نمذجة جزء حمدد من‬
‫اللغة‪« :‬الكلمة العربية الفصيحة املكتوبة»‪ .‬وبذلك خترج اللغات غري العربية‪ ،‬وكذلك‬
‫العامية التي ال يوجد هلا نظام كتايب معياري‪ .‬كام خترج املهام التي تعنى بالفقرات أو‬
‫النص كامال‪ ،‬كتلخيص النص‪ ،‬أو استخراج موضوع الفقرة‪ .‬كام خيرج من ذلك أي‬
‫دراسة للكلمة املنطوقة والصعوبات التي قد تواجه احلاسب مثال يف متييز الكلمة‬
‫املنطوقة‪ .‬وعند إيراد لفظة «الكلمة» فإن املقصود هي الكلمة املكتوبة (جمموعة احلروف‬
‫التي حتدها مسافتان) ال الكلمة النحوية (مثل الضمري املتصل)‪.‬‬
‫أيضا آلية وصعوبات خوارزميات الذكاء االصطناعي التي هتدف‬ ‫تناقش الورقة ً‬
‫للقيام بمهام كثرية متعلقة بالكلمة العربية حتديدً ا‪ :‬مثل تعيني قسم الكالم للكلمة‪،‬‬
‫علم‪ ،‬تعيني نوع االسم من حيث اجلمع أو التثنية أو اإلفراد‬
‫تعيني نوع الكلمة إذا كانت ً‬
‫وغري ذلك‪.‬‬
‫ولتوضيح املقصود من املهام‪ ،‬يمكننا دراسة احلديث الرشيف التايل‪:‬‬
‫«ال يؤمن أحدكم حتى يكون هواه تب ًعا ملا جئت به» (األربعني النووية)‬
‫فقد نبني عدة نامذج تدرس الكلمة‪:‬‬
‫Ÿ Ÿتعيني قسم الكلمة‪ :‬ال‪/‬حرف_نفي يؤمن‪/‬فعل ‪ ..‬إلخ‪.‬‬
‫Ÿ Ÿتقسيم أجزاء الكلمة‪ :‬أحدكم‪/‬أحد‪+‬كم هواه‪/‬هوا‪+‬ه ملا‪/‬ل‪+‬ما ‪ ..‬إلخ‪.‬‬

‫‪-99-‬‬
‫Ÿ Ÿالتعرف عىل أصل الكلمة‪ :‬يؤمن‪/‬آمن أحدكم‪/‬أحد يكون‪/‬كان هواه‪/‬هوى‬
‫‪ ..‬إلخ‪.‬‬
‫Ÿ Ÿتشكيل الكلمة‪ :‬يؤمن‪ُ /‬ي ْؤ ِم ُن أحدكم‪َ /‬أ َحدُ ك ُْم ‪ ..‬إلخ‪.‬‬
‫Ÿ Ÿالتعرف عىل الكلمة معجم ًيا‪ :‬يؤمن‪/‬آمن_التصديق (وليس االنقياد والطاعة)‬
‫هواه‪/‬هوى_امليل (وليس العشق) ‪ ..‬إلخ‪.‬‬
‫جئت‪/‬املتكلم ‪..‬‬
‫Ÿ Ÿالتعرف عىل عائد الضمري‪ :‬أحدكم‪/‬املخاطبني هواه‪/‬أحدكم ُ‬
‫إلخ‪.‬‬
‫Ÿ Ÿالتعرف عىل بعض اخلصائص الرصفية (مثل جنس االسم وعدده‪ ،‬نوع وإعراب‬
‫الفعل)‪ :‬يؤمن‪/‬مرفوع يكون‪/‬منصوب‪.‬‬
‫Ÿ Ÿاستخراج معاين ومرادفات وأضداد من القاموس الشبكي للكلامت ‪:Wordnet‬‬
‫يؤمن‪/‬اإليامن‪،‬الدين‪-‬مرادف‪:‬يصدق‪،‬يتبع‪،‬ينقاد‪-‬ضد‪ :‬يكذب‪ ،‬جيحد‬
‫هذه النامذج متثل النمط اللغوي لدراسة وحتليل الكلمة؛ وهذه النامذج غال ًبا متثل‬
‫مرآة للعلم اللغوي واللساين الذي تطور عرب السنني‪ .‬يف السنوات األخرية‪ ،‬ظهر وانترش‬
‫نمط آخر لنمذجة الكلمة بناء عىل نظرية التوزيع الداليل ‪،semantic distribution‬‬
‫والتي تستند عىل نظرية فريث)‪ (Firth, 1957‬والتي يقول فيها إنه «يمكن التعرف عىل‬
‫الكلمة من الكلامت املصاحبة هلا يف النص»‪ .‬وبناء عىل النظرية‪ ،‬أصبحت مهمة احلاسب‬
‫التعرف عىل الكلمة (م) بناء عىل الكلامت املصاحبة هلا (أو السياق) (خ)‪ .‬هذه املهمة‬
‫مشاهبة للسؤال التعليمي الذي يطرحه املعلم عىل متعلمي لغة ما ليكملوا الفراغ يف‬
‫مجلة بكلمة مناسبة‪ ،‬وهم بذلك يقيسون مدى استيعاهبم ليس فقط للكلمة وإنام للسياق‬
‫كذلك‪ ،‬وللتناسب بني الكلمة والسياق‪ .‬وكذا احلاسب‪ ،‬كلام كان أكثر دقة يف اختيار‬
‫الكلمة األنسب‪ ،‬كان متثيل الكلمة أو نمذجتها أكثر فائدة ونف ًعا‪.‬‬
‫كال النمطان (اللغوي والتوزيعي) يمكن استخدامهام لتمثيل الكلمة حاسوب ًيا‪.‬‬
‫والتمثيل احلاسويب أسايس للقيام بعدد كبري من العمليات‪ .‬إذ ال يمكننا إجراء‬
‫العمليات الرياضية عىل الكلمة وهي يف شكلها اخلام‪ ،‬مثل قياس املسافة أو الفرق‪.‬‬
‫فمثال‪ ،‬ال يمكننا القول (بسهولة) إن كلمة «مسجد» هي مفرد كلمة «مساجد» وال أن‬

‫‪-100-‬‬
‫كلمة «مسجد» هي أقرب لكلمة «صالة» من كلمة «شمس» وذلك فقط من خالل‬
‫معرفتنا بمجموعة احلروف أو األصوات التي متثل الكلمة‪ .‬بعبارة أخرى‪ ،‬نريد أن‬
‫نكون قادرين عىل استنباط معادلة ُتربنا أن الفرق بني البعد بني «مسجد» و»صالة»‬
‫أكرب من ال ُبعد بني «مسجد» و«شمس»‪:‬‬
‫مسجد – صالة > مسجد ‪ -‬شمس‬
‫هذه العمليات الرياضية قد تكون رضورية يف البحث‪ .‬فيمكننا مث ً‬
‫ال عند البحث‬
‫عن الصالة‪ ،‬إظهار نتائج مثل أقرب املساجد إىل الباحث‪ .‬عرب متثيل الكلامت الثالث‬
‫بالنمط اللغوي أو التوزيعي أو باإلثنني م ًعا‪ ،‬فنستطيع املقارنة بني الصفات املستخرجة‬
‫لكلامت البحث‪.‬‬
‫مهم لتطبيقات أكثر‬
‫ال ً‬‫وهذه النامذج بمجموعها (أو بشكلها الريايض) تعترب مدخ ً‬
‫تعقيدً ا مثل استخراج املعلومات أو الرتمجة اآللية أو حتليل اخلطاب أو تلخيص النص‬
‫أو توقع الكلمة التالية يف لوحة املفاتيح الذكية‪ ،‬كام أسلفنا من قبل‪.‬‬

‫‪ -2‬صعوبات نمذجة الكلمة العربية‬


‫تواجه خوارزميات الذكاء االصطناعي املصممة لتحليل ونمذجة الكلمة العربية‬
‫صعوبات عدة‪ .‬فاللغة العربية تصنف ضمن أغنى اللغات رصف ًيا‪ ،‬والنظام الرصيف فيها‬
‫ليس خط ًيا‪ ،‬كام أن مستويات الغموض فيها عالية بسبب النقص املعتاد يف اتباع النظام‬
‫الكتايب (إمهال اهلمزات والتشكيل مثال)‪ .‬هذه العنارص الثالثة تشكل أهم املصادر‬
‫لصعوبة حتليل الكلمة العربية‪.‬‬
‫فاللغة العربية هي لغة غنية رصف ًيا )‪.(Morphologically Rich Language‬‬
‫وهذا الغنى جعل التفاعل بني الرصف (دراسة بنية الكلامت) والنحو (دراسة عالقات‬
‫الكلامت يف اجلملة) أكثر تعقيدً ا‪ .‬وكلام كانت اللغة أغنى رصف ًيا‪ ،‬كانت اجلملة متتاز‬
‫بمرونة أعىل يف صفاهتا‪ ،‬كاملرونة يف ترتيب الكلامت (‪.)Tsarfaty et al., 2010‬‬
‫فمثال‪ ،‬يمكننا قول‪ :‬رضب حممدٌ خالدً ا‪ ،‬ورضب خالدً ا حممدٌ ‪ .‬فوجود عالمة اإلعراب‬
‫(اخلصيصة الرصفية) سمحت بتقديم املفعول عىل الفاعل‪ .‬وهذا قد يفرس لنا أمهية‬
‫عالمة اإلعراب يف النظرية النحوية التقليدية‪ .‬هذه املرونة جتعل من خوارزميات الذكاء‬

‫‪-101-‬‬
‫االصطناعي أقل قدرة عىل نمذجة اللغة (باملقارنة مع لغة أقل مرونة كاللغة اإلنجليزية)‬
‫مع افرتاض أن اخلوارزميتني ُأعطيتا نفس القدر من األمثلة للتمرين )‪.(Heintz, 2014‬‬
‫وهذا الغنى الرصيف جيعل الكلمة العربية نفسها كثرية االشتقاقات وااللتصاقات‪،‬‬
‫وذلك لرتميز هذه اخلصائص الرصفية‪ .‬فعادة ما حتتوي الكلمة العربية الواحدة عىل‬
‫جمموعة من االلتصاقات التي تبني خصائصها الرصفية‪ ،‬مثل «ـون» لبيان اجلمع‬
‫واملذكر‪ ،‬و»نـ» يف الفعل املضارع لبيان املتكلم واجلمع‪ ،‬و«تـ» كذلك لبيان إما املؤنث‬
‫كثريا» و«فاطمة تصوم»‪ .‬وهذه االلتصاقات ليس مميزة‬ ‫أو املخاطب كام يف «أنت تصوم ً‬
‫بعالمة معينة مما يصعب متييز اللواصق وجيعل الكلمة غامضة ومبهمة‪ .‬فليس من‬
‫السهولة بمكان متييز الفاء امللتصقة يف بداية الكلمة (حرف االستئناف والعطف)‪ ،‬كام‬
‫ـه ْم» أو غري‬
‫يف الكلمة «فهم»‪ .‬فقد تكون الفاء ملتصقة فتكون مع الضمري املنفصل «فـ ُ‬
‫ملتصقة فيكون الفعل « َف ِهم»‪ .‬إضافة لذلك‪ ،‬بعض العمليات االلتصاقية تغري يف شكل‬
‫الكلمة؛ أي أن الكلمة بعد االلتصاق تتغري طب ًقا لقواعد صعبة النمذجة حاسوب ًيا دون‬
‫النظر يف النظام الرصيف الغري خطي للغة العربية‪ ،‬مثل التصاق الكلامت معلولة اآلخر‬
‫قال ‪ُ -‬ق ْلت‪.‬‬
‫بالحقة‪َ :‬يدْ ُعو ‪َ -‬يدْ ُعون‪َ ،‬‬
‫دائم التصاقية‪ ،‬واللغة العربية ‪-‬باإلضافة إىل العربية‪-‬‬
‫واخلصائص الرصفية ليست ً‬
‫تتميز بكوهنا لغة سامية ذات نظام غري خطي وتبنى الكلمة فيها بناء عىل الوزن واجلذر‪.‬‬
‫وهذا جعل بعض اخلصائص الرصفية صعبة التعلم من قبل اخلوارزميات احلاسوبية‪.‬‬
‫فمثال‪ ،‬التعرف عىل اجلمع يف مجوع التكسري ليس التصاقيا‪ ،‬وإنام اشتقاقيا مبني عىل وزن‬
‫معني‪ .‬وكذلك خوارزميات التعرف عىل جذر أو أصل الكلمة (‪ (Stemming‬عادة ما‬
‫تكون النتائج فيها ليست مثالية‪.‬‬
‫ونظرا ألن الكلمة العربية كثرية االشتقاقات وااللتصاقات‪ ،‬فإن عدد األشكال‬ ‫ً‬
‫ٍ‬
‫املحتملة للكلمة الواحدة عال جدً ا‪ ،‬مما يؤدي بالرضورة إىل زيادة حجم وتباعد‬
‫(‪ )sparseness‬املفردات التي ختزن يف النظام (ونقصد هبا أشكال كل الكلامت‬
‫العربية)‪ .‬وهذا التباعد جيعل من احتامليات توافق شكل كلمة معينة يف النظام مع شكل‬
‫وقليل؛ مما يؤدي إىل تقليل كفاءة خوارزميات الذكاء االصطناعي‪.‬‬ ‫ً‬ ‫كلمة أخرى حمدو ًدا‬
‫ولتقليل آثار هذه املشكلة‪ ،‬يعمد كثري من الباحثني إىل جتزئة الكلمة آل ًيا إىل أجزائها‬

‫‪-102-‬‬
‫الرئيسية‪ ،‬فتصبح كلمة «ساعدوين» ‪-‬مثالً‪ -‬مكونة من ثالثة أو أربعة أجزاء حسب‬
‫معايري التجزئة املستخدمة‪ .‬وهذه التجزئة اآللية قد أثبتت فاعليتها مث ً‬
‫ال يف تطبيقات‬
‫الرتمجة اآللية (‪ )Habash & Sadat, 2006‬لكنها ال ختلو من أخطاء تؤثر يف ما يلحق‬
‫من خوارزميات‪.‬‬
‫وألن الكلمة العربية غنية رصف ًيا واشتقاق ًيا‪ ،‬فإن عدد اخلصائص املستخرجة للكلمة‬
‫الواحدة أكرب من غريها من اللغات مثل اللغة اإلنجليزية‪ .‬ففي حني يكفي لوصف‬
‫كلمة إنجليزية أن ترمز برمز ‪ tag‬ضمن جمموعة رموز ترتاوح بني ‪ ٣٠‬إىل ‪ً ٥٠‬‬
‫رمزا‪ ،‬فإن‬
‫جمموعة الرموز املحتملة لوصف الكلمة العربية تتجاوز ذلك بكثري وعادة ما تكون فوق‬
‫ف االسم يف اللغة اإلنجليزية إما‬ ‫املائة رمز (‪ .)Habash, 2010‬ففي حني يكفي أن ن َِص َ‬
‫«فرس» قد تُر َّمز برمز أكثر تعقيدً ا مثل‬
‫ٌ‬ ‫باسم_مفرد أو اسم_مجع‪ ،‬فإن الكلمة العربية‬
‫أي من اخلصائص يعتمد بالدرجة األوىل‬ ‫اسم_مفرد_مؤنث_مرفوع_نكرة‪ .‬واحلاجة إىل ٍّ‬
‫عىل اهلدف املرجو من نمذجة الكلمة؛ فقد حيتاج إىل أغلب اخلصائص يف حاالت الرتمجة‬
‫اآللية ‪-‬مثال‪ ،-‬بينام يكفي فقط إرجاع الكلمة إىل األصل يف تطبيقات البحث والتقيص‪.‬‬
‫بقي أن نشري إىل السبب األخري يف صعوبة نمذجة الكلمة العربية‪ .‬وهو ترسب كثري‬
‫من املحددات اللغوية عند كتابة النص‪ ،‬مثل غياب التشكيل أو اهلمزات‪ .‬هذا الترسب‬
‫يزيد بشكل كبري من غموض الكلمة العربية‪ .‬ففي دراسة لغموض الكلمة يف كتاب‬
‫وقياسا عىل جمموعة من القواميس‬
‫ً‬ ‫رياض الصاحلني (‪،)Alosaimy & Atwell, 2018‬‬
‫احلاسوبية‪ ،‬كان عدد االحتامالت التحليلية للكلمة الواحدة (التحليل يشمل أصل‬
‫الكلمة وقسمها وثامن خصائص رصفية) يقفز من معدل ‪ ٤.٨٣‬احتامل إىل ما يقرب من‬
‫‪ ١٧.٤٢‬احتامل عند غياب التشكيل‪.‬‬

‫‪-3‬خوارزميات الذكاء االصطناعي يف نمذجة الكلمة لغو ًيا‬


‫كام أسلفنا فإن الطرق التحليلية اللغوية تشمل جمموعة اخلوارزميات التي تنحى إىل‬
‫استخراج اخلصائص اللغوية للكلمة‪ ،‬وبعكس الطرق التحليلية التوزيعية التي تعنى‬
‫باستخراج موقع الكلمة والعالقات بينها وبني الكلامت األخرى‪ .‬أحد أهم الفروقات‬
‫موجها تصنيف ًيا بعكس النمط‬
‫ًّ‬ ‫بني هذين الصنفني هو أن النمط اللغوي عادة ما يكون‬

‫‪-103-‬‬
‫ﺔ ﻟﻠﻜﻠﻤﺔ‪ ،‬وﺑﻌﻜﺲ اﻟﻄﺮق اﻟﺘﺤﻠﯿﻠﯿﺔ اﻟﺘﻮزﯾﻌﯿﺔ اﻟﺘﻲ‬
‫واﻟﻌﻼﻗﺎت ﺑﯿﻨﮭﺎ وﺑﯿﻦ اﻟﻜﻠﻤﺎت اﻷﺧﺮى‪ .‬أﺣﺪ أھﻢ‬
‫ﻮ أن اﻟﻨﻤﻂ اﻟﻠﻐﻮي ﻋﺎدة ﻣﺎ ﯾﻜﻮن ﻣﻮﺟﮭًّﺎ ﺗﺼﻨﯿﻔﯿًﺎ‬
‫ﻜﻮن ﻏﯿﺮ ﻣﻮﺟﮫ وﯾﮭﺪف إﻟﻰ ﺑﻨﺎء ﻣﻀﺎﻣﯿﻦ اﻟﻜﻠﻤﺔ‬
‫التوزيعي الذي يكون غري موجه وهيدف إىل بناء مضامني الكلمة ‪word embeddings‬‬
‫ﺮى ﻓﻲ اﻟﻔﺼﻞ اﻟﻘﺎدم(‪.‬‬
‫(كام سنرى يف الفصل القادم)‪.‬‬
‫ﺔ اﻟﺘﻲ ﺗﺤﺘﻮي ﻋﻠﻰ ﻣﺠﻤﻮﻋﺔ ﻣﻦ اﻟﺒﯿﺎﻧﺎت ﻟﻠﺘﺪرﯾﺐ‬
‫املوجه العملية التي حتتوي عىل جمموعة من البيانات للتدريب ‪،S‬‬‫نقصد بتعلم اآللة َّ‬
‫ﻋﻦ أزواج ﻣﻦ اﻟﻤﺪﺧﻼت واﻟﻤﺨﺮﺟﺎت اﻟﻤﻄﻠﻮﺑﺔ‬
‫وهذه البيانات هي عبارة عن أزواج من املدخالت واملخرجات املطلوبة (‪ .)x,z‬أي‬
‫ﻄﺎة ﯾﺘﻢ اﻟﺘﺪرﯾﺐ ﻋﻠﯿﮭﺎ‪ .‬وﯾﻜﻮن اﻟﻤﺪﺧﻞ ‪ x‬ﻋﻨﺼﺮًا‬
‫عنرصا يف املجموعة ‪X‬‬
‫ً‬ ‫أنه البد من أمثلة معطاة يتم التدريب عليها‪ .‬ويكون املدخل ‪x‬‬
‫ﻣﺠﻤﻮﻋﺔ كام يضاف إىل جمموعة البيانات للتدريب‪ ،‬جمموعة‬
‫املجموعة ‪.Z‬‬‫ﯾﻀﺎف إﻟﻰ‬
‫عنرصا يف‬
‫ً‬
‫‪z.Z‬ﻛﻤﺎ‬ ‫ﻋﻨﺼﺮًا ﻓﻲ اﻟﻤﺠﻤﻮﻋﺔ‬
‫واملخرج‬
‫)وأﺣﯿﺎﻧًﺎللتقييم ‪’S‬‬
‫ﻣﺠﻤﻮﻋﺔ (وأحيانًا جمموعة ثالثة للتحقق ‪)validation set‬‬ ‫أخرى‪’S‬منفصلة‬ ‫بياناتﻟﻠﺘﻘﯿﯿﻢ‬
‫ﻧﺎت أﺧﺮى ﻣﻨﻔﺼﻠﺔ‬
‫اعتبارمها مستخرجتني بشكل مستقل من نفس املصدر‬ ‫ﯾﻤﻜﻦ‪ ›S‬يمكن‬
‫اﻋﺘﺒﺎرھﻤﺎ‬ ‫املجموعتني ‪ S‬و‬ ‫وكال‬
‫اﻟﻤﺠﻤﻮﻋﺘﯿﻦ ‪ S‬و ‪'S‬‬ ‫‪ (v‬وﻛﻼ‬
‫واﻟﮭﺪف األسايس من اخلوارزمية هي استخدام جمموعة‬ ‫(‪ ..‬واهلدف‬ ‫ﻧﻔﺲ اﻟﻤﺼﺪر !×!𝐷𝐷 )‪distribution‬‬
‫)‪(distribution‬‬
‫احلرص عىل تقليل اخلطأ الناتج ‪ E‬يف جمموعتي التدريب‬ ‫نموذج‪ ،‬مع‬
‫ﻧﻤﻮذج‪ ،‬ﻣﻊ‬ ‫التدريب لبناء‬
‫اﻟﺘﺪرﯾﺐ ﻟﺒﻨﺎء‬ ‫ﻲ اﺳﺘﺨﺪام ﻣﺠﻤﻮﻋﺔ‬
‫اخلوارزميات ذات العوامل ‪Parametric algorithms‬‬ ‫وعادة يف‬
‫اﻹﻣﻜﺎن‪.‬‬ ‫اإلمكان‪.‬ﺑﻘﺪر‬
‫بقدر واﻟﺘﻘﯿﯿﻢ‬ ‫والتقييم‬
‫اﻟﺘﺪرﯾﺐ‬ ‫ﺞ ‪ E‬ﻓﻲ ﻣﺠﻤﻮﻋﺘﻲ‬
‫تطوير اخلوارزمية عرب التعديل يف العوامل التي تؤثر يف‬ ‫يكون‬ ‫العصبية)‬ ‫الشبكات‬ ‫(مثل‬
‫ﻌﻮاﻣﻞ ‪) Parametric algorithms‬ﻣﺜﻞ اﻟﺸﺒﻜﺎت‬
‫دالة حساب الفقدان (‪.)Loss function‬‬
‫زﻣﯿﺔ ﻋﺒﺮ اﻟﺘﻌﺪﯾﻞ ﻓﻲ اﻟﻌﻮاﻣﻞ اﻟﺘﻲ ﺗﺆﺛﺮ ﻓﻲ داﻟﺔ‬
‫اسم أو فع ً‬
‫ال‬ ‫فمثال‪ ،‬لنأخذ عملية حتديد قسم الكلمة ‪( POS tagging‬ليكون إما ً‬ ‫‪.(L‬‬
‫موجه ًة عرب إعطائها جمموعة تدريبية (مثال‪ :‬نام‪/‬‬
‫خوارزمية ّ‬ ‫أو حر ًفا)‪ .‬يمكننا أن نبني‬
‫ﻜﻠﻤﺔ ‪) POS tagging‬ﻟﯿﻜﻮن إﻣﺎ اﺳ ًﻤﺎ أو ﻓﻌﻼً أو‬
‫فعل صالح‪/‬اسم عىل‪/‬حرف الرسير‪/‬اسم‪ )...‬وجمموعة أخرى لتقييم اخلوارزمية‬
‫ﻣﯿﺔ ﻣﻮﺟّﮭﺔً ﻋﺒﺮ إﻋﻄﺎﺋﮭﺎ ﻣﺠﻤﻮﻋﺔ ﺗﺪرﯾﺒﯿﺔ )ﻣﺜﻼ‪:‬‬
‫(مثال‪ :‬أتى‪/‬فعل خالد‪/‬اسم من‪/‬حرف السوق‪/‬اسم‪ .)..‬الحظ أننا نفرتض أن كال‬
‫ف اﻟﺴﺮﯾﺮ‪/‬اﺳﻢ‪ (...‬وﻣﺠﻤﻮﻋﺔ أﺧﺮى ﻟﺘﻘﯿﯿﻢ‬
‫املجموعتني أتيا من نفس املصدر وهلام إذن نفس اخلصائص التوزيعية (عدد متقارب‬
‫‪114‬‬
‫لعدد األسامء‪ ،‬نفس اللغة‪ ... ،‬إلخ)‪ .‬فلو افرتضنا أن اخلوارزمية بنت النموذج التايل‬
‫(بعد النظر إىل جمموعة التدريب)‪ :‬إذا كانت الكلمة تبدأ بحرف النون فإهنا ٌ‬
‫فعل‪ ،‬وإذا‬
‫كانت تبدأ بحرف العني فإهنا حرف‪ ،‬وما عدامها فهو اسم‪ .‬سيصبح ناتج اخلوارزمية‬
‫‪ ٪١٠٠‬عند قياسها عىل املجموعة التدريبية‪ ،‬ولكن ‪ ٪٥٠‬يف املجموعة التقييمية‪ .‬ولذا‬
‫ستحاول اخلوارزمية تطوير عملها‪ ،‬ربام عرب الذهاب إىل احلرف التايل‪ ،‬أو بأخذ أول‬
‫حرفني باالعتبار أو غري ذلك من الطرق‪.‬‬
‫يعيب تعلم اآللة املوجه حاجته إىل أمثلة للتدريب أي إىل «تعليم» أو «توسيم»‬
‫البيانات ‪ annotation‬التي عادة ما تكون جمهدة ومكلفة ماد ًيا‪ .‬ولكن باملقابل‪ ،‬فإن‬

‫‪-104-‬‬
‫اخلوارزميات املوجهة عادة ما تكون أفضل أدا ًء من نظريهتا الغري موجهة والتي ال‬
‫تتطلب حتديد البيانات املطلوبة(‪.)Albared, Omar, & Ab Aziz, 2009‬‬
‫موجه تصنيفي ‪Classification‬‬
‫ّ‬ ‫عادة ما يكون حتليل الكلمة عرب بناء نموذج‬
‫‪Problem‬؛ أي أن اهلدف األسايس للنموذج هو القدرة عىل حتديد صنف معني بني‬
‫عدة أصناف معروفة وحمددة سل ًفا‪ .‬وأحد أشهر النامذج وأكثرها نف ًعا هو تصنيف قسم‬
‫الكلمة ‪ ،POS tag‬كاملثال السابق‪ .‬إال أن التصنيف ‪-‬حتى وإن كان معيار ًيا‪ -‬فإنه‬
‫من صنع اإلنسان وبناء عىل خربته اللغوية ولذا فهو أحيانًا يفشل يف احلاالت احلدية‬
‫كبريا يف حتديد األصناف يف‬‫‪ .borderline cases‬ولذا فإن الباحثني خيتلفون اختال ًفا ً‬
‫أقسام الكلمة‪ .‬فعند سيبويه‪ ،‬أن الكلمة اسم كفرس وحائط‪ ،‬أو فعل يدل عىل احلدث‬
‫أو ما عدا ذلك وسامه احلرف‪ .‬ولكن كثري ًا من الباحثني اللغويني مل يرتأِ هذا التقسيم‬
‫(كتامم حسان ‪-‬رمحه اهلل‪ -‬وتلميذه) وجعلها سبعة أقسام بناء عىل املبنى واملعنى‪ :‬االسم‪،‬‬
‫والفعل‪ ،‬والضمري‪ ،‬واألداة‪ ،‬والصفة‪ ،‬واخلالفة‪ ،‬والظرف‪ .‬وقد أورد بعض احلاالت‬
‫احلدية‪ ،‬مثل اسم الفاعل (الذي يعمل عمل الفعل ‪ ،functional morphology‬وله‬
‫مبنى االسم وصفاته ‪( )form morphology‬الساقي‪.)1975 ،‬‬
‫وعند بناء النموذج املوجه التصنيفي للغة ما‪ ،‬فإن النموذج عادة ما يأخذ التسلسل‬
‫بني املدخالت يف االعتبار‪ .‬ففي املثال السابق‪ ،‬يمكننا اعتبار التسلسل (مثال‪« :‬كل‬
‫ما ييل احلرف فهو اسم» أو «الفعل يكون يف بداية اجلملة») ليزيد من دقة النموذج‬
‫املستخرج‪ .‬هذه اخلاصية موجودة عادة يف اخلوارزميات التي تأخذ الوقت باالعتبار‪،‬‬
‫مثل حتويل الصوت إىل كالم‪ ،‬فليس من املنطقي اعتبار كل ثانية من الصوت جزءا‬
‫مستقال دون األخذ باالعتبار ما سبق من الثواين‪ .‬وهبذا أصبحت املشكلة حمددة أكثر‬
‫ويمكننا تسميتها‪ :‬اخلوارزميات املوجهة التصنيفية لسالسل البيانات‪.‬‬
‫هذه اخلوارزميات يمكن تطبيقها عىل كثري من املهام اللغوية التي تتدرج من‬
‫املستوى الصويت ‪( phonology‬أو الكتايب ‪ ،)orthography‬الرصيف ‪،morphology‬‬
‫النحوي‪ ،syntax‬وحتى الداليل‪ .semantic‬ففي املستوى الكتايب‪ ،‬يمكننا بناء نموذج‬
‫موجه تصنيفي لتشكيل الكلمة‪ .‬وتكون سالسل البيانات فيه هي احلروف (وأماكن‬
‫املسافات)‪ ،‬واألصناف هي عالمات التشكيل‪ .‬وتكون جمموع البيانات التدريبية‬

‫‪-105-‬‬
‫والتقييمية مأخوذة من ذخرية لغوية مشكلة بالكامل‪ .‬وكذلك يف املستوى الكتايب‪-‬‬
‫الرصيف‪ ،‬كالتعرف عىل أجزاء الكلمة من سوابق ولواحق‪ .‬يمكننا كذلك تصنيف كل‬
‫الرصيف يمكننا كام أسلفنا‬ ‫ﺷﺠﺮةاملستوى‬
‫اﻹﻋﺮاب‬ ‫اﻹﻋﺮابويف‬
‫الحق‪.‬‬
‫ﻓﻲ ﺑﻨﺎء‬ ‫ﺷﺠﺮةأو‬
‫أصل‬ ‫سابق أو‬
‫ﺑﻨﺎء‬
‫اﻹﻋﺮاﺑﻲ‬ ‫ﻓﻲ‬ ‫إىل‬ ‫الكلمة‬
‫اﻹﻋﺮاﺑﻲ‬
‫اﻟﻤﺴﺘﻮى‬ ‫وﻛﺬﻟﻚيف‬
‫ﻓﻲﻘًﺎ‪.‬حرف‬
‫اﻟﻤﺴﺘﻮى ﻓﻲ‬ ‫وﻛﺬﻟﻚ ﺳﺎﺑ‬
‫ﺴﺘﺨﺮﺟﺔ‬ ‫‪.‬‬
‫واجلنس واإلسناد (للمخاطب‬ ‫كالعدد‬
‫ﯾﻤﻜﻨﻨﺎ ﺑﻨﺎء‬ ‫الرصفية‬
‫ﺑﻨﺎء‬ ‫اخلصائص ﯾﻤﻜﻨﻨﺎ‬
‫‪،Transition-based‬‬ ‫‪Dependency‬قسم الكلمة أو‬
‫‪،Transition-based‬‬
‫‪Dependency‬‬ ‫استخراج‬
‫‪Parsing Tree‬‬ ‫‪Parsing‬‬
‫ﺳﻨﺎدﯾﺔ‬
‫اخلصائص‪ .‬وهنا قد تكون سالسل البيانات هي‬ ‫ﺟﺰ ًء)أا(و ﻣﻦ‬ ‫من‬ ‫وغريها‬ ‫للغائب)‬ ‫أو‬ ‫للمتكلم‬ ‫أو‬
‫ﺟﺰ ًءا ﺟﺰ ًءا( ﻣﻦ‬ ‫ﺟﺰ ًءاﻛﻠﻤﺔ‬
‫اﻟﺠﻤﻠﺔ)أوﻛﻠﻤﺔ‬
‫ﻛﻠﻤﺎت ﻛﻠﻤﺔ‬
‫اﻟﺠﻤﻠﺔ ﻛﻠﻤﺔ‬ ‫ﺑﻨﺎء ﻛﻠﻤﺎت‬
‫ﻧﻤﻮذج ﯾﺄﺧﺬ‬ ‫ﻋﺒﺮﯾﺄﺧﺬ‬ ‫ﻧﻤﻮذج‬
‫ﺠﺮة‬
‫الكلامت نفسها أو أجزاء الكلمة املستخرجة ساب ًقا‪ .‬وكذلك يف املستوى اإلعرايب يف‬
‫اﻟﯿﺴﺎر ‪reduce‬‬ ‫‪reduce‬‬ ‫اﻟﯿﺴﺎر‬
‫اﻟﻜﻠﻤﺔ إﻟﻰ‬ ‫اﻟﻜﻠﻤﺔأنإﻟﻰﯾﺴﻨﺪ‬ ‫ﻛﻞﯾﺴﻨﺪ‬
‫ﻋﻤﻠﯿﺔ إﻣﺎ‬ ‫ﻓﻲ أن‬
‫ﯾﻘﺮر إﻣﺎ‬
‫اﻟﯿﺴﺎر‪،‬ﻛﻞﺛﻢﻋﻤﻠﯿﺔ‬
‫ﯾﻘﺮر ﻓﻲ‬‫ﯿﻦﺛﻢ إﻟﻰ‬
‫بناء شجرة اإلعراب اإلسنادية ‪،Transition-based Dependency Parsing Tree‬‬
‫ﯾﺄﺧﺬ‪.shift‬‬
‫اﻟﻜﻠﻤﺔ اﻟﺘﺎﻟﯿﺔ‬ ‫‪left‬أن ﯾﺄﺧﺬ‬‫‪ ،reduce‬أو‬
‫‪left‬إﻟﻰ اﻟﯿﻤﯿﻦ‬
‫ﯿﻦ‪ ،‬أو‬
‫‪.shift‬اجلملة كلمة كلمة (أو جز ًءا جز ًءا) من‬
‫اﻟﺘﺎﻟﯿﺔكلامت‬
‫اﻟﻜﻠﻤﺔيأخذ‬
‫الشجرةأوعربأنبناء نموذج‬
‫‪،reduce‬‬ ‫يمكننا بناء‬ ‫‪rig‬‬
‫إىل اليسار ‪،reduce right‬‬ ‫الكلمةﺑﻨﺎء‬
‫يسندﻣﻦ أن‬‫ﺑﻨﺎء‬
‫اﻟﺮﻏﻢ‬‫أن أن‬
‫إما‬ ‫اﻟﺘﻔﺎﺻﯿﻞ"‪.‬ﻣﻦ‬
‫عمليةﻋﻠﻰ‬ ‫اﻟﺮﻏﻢ‬
‫ﻋﻠﻰيف كل‬ ‫اﻟﺘﻔﺎﺻﯿﻞ"‪.‬ﻓﻲ‬
‫يقرر‬ ‫ثم‬ ‫ﻓﻲ اليسار‪،‬‬
‫"اﻟﻌﻔﺮﯾﺖ‬ ‫إىل‬ ‫اﻟﻤﺜﻞ"اﻟﻌﻔﺮﯾﺖ‬
‫اليمني‬
‫اﻹﻧﺠﻠﯿﺰي‪:‬‬ ‫ﻹﻧﺠﻠﯿﺰي‪:‬‬
‫ﯾﻘﻮل‬
‫‪.shift‬‬
‫ﻧﺴﺒﯿًﺎ‪،‬‬ ‫التاليةﺳﮭﻞ‬
‫الكلمةﯿًﺎ‪،‬‬
‫ﺳﮭﻞ ﻧﺴﺒ‬
‫ﻟﻠﺘﺪرﯾﺐ(‬ ‫يأخذ‬
‫ﻣﻮﺳﻮﻣﺔ‬ ‫ﺑﯿﺎﻧﺎتأن‬
‫ﻟﻠﺘﺪرﯾﺐ(‬‫‪ ،reduce‬أو‬
‫ﻣﻮﺳﻮﻣﺔ‬
‫ﺮاض وﺟﻮد‬ ‫اليمني‬
‫ﺑﯿﺎﻧﺎت‬
‫‪left‬‬ ‫ﻣﻮﺟﮫإىل)ﻣﻊ‬
‫وﺟﻮداﻓﺘ‬ ‫اﻓﺘ أو‬
‫ﺮاض‬ ‫ﻮﺟﮫ )ﻣﻊ‬
‫ﺗﺼﻨﯿﻔﻲ‬ ‫ذج‬
‫ﻓﻤﺜﻼ‪،‬الرغم من أن بناء نموذج‬ ‫ﻓﻤﺜﻼ‪،‬‬
‫التفاصيل»‪ .‬عىل‬
‫اﻟﺘﻔﺎﺻﯿﻞ‪.‬‬ ‫اﻟﺘﻔﺎﺻﯿﻞ‪ .‬يفﻓﻲ‬
‫ﻓﻲﺑﺸﻜﻞ‬
‫«العفريت‬
‫أﻛﺒﺮ‬ ‫ﺑﺸﻜﻞ أﻛﺒﺮ‬
‫اإلنجليزي‪:‬‬
‫اﻟﺪﺧﻮل‬ ‫اﻟﺪﺧﻮلاملثل‬
‫ﺗﺘﻄﻠﺐ‬ ‫ﺗﺘﻄﻠﺐ‬
‫دﻗﺔيقول‬
‫ﻋﺎﻟﯿﺔ‬ ‫كام‬ ‫ﻋﺎﻟﯿﺔﻋﻠﻰ‬ ‫ﻋﻠﻰ دﻗﺔ‬
‫اﻟﺤﺼﻮل‬ ‫أن‬
‫للتدريب) سهل نسب ًيا‪ ،‬إال أن‬
‫ﻣﻦ ﻣﻌﺮﻓﺔ‬‫موسومة‬ ‫ﻣﻌﺮﻓﺔ‬
‫وﻻﺑﺪ‬ ‫بيانات‬
‫ًا‪،‬‬ ‫وجودﺎ ﻣﻦ‬
‫ﻛﺒﯿﺮ‬ ‫افرتاضًا‪ ،‬اﺧﺘﻼﻓً‬
‫وﻻﺑﺪ‬ ‫اﻟﺘﺼﻨﯿﻒ‬ ‫(مع‬
‫موجه ﻓﻲ‬
‫اﺧﺘﻼﻓًﺎ ﻛﺒﯿﺮ‬ ‫اﻟﺘﺼﻨﯿﻒ‬ ‫تصنيفي‬
‫اﻟﻤﺴﺘﺨﺪﻣﺔ‬ ‫اﻟﺨﻮارزﻣﯿﺎتﻓﻲ‬
‫ﺎت اﻟﻤﺴﺘﺨﺪﻣﺔ‬ ‫ﻒ‬
‫التفاصيل‪ .‬فمثال‪ ،‬ختتلف‬ ‫دراﺳﺔ أكرب يف‬
‫اﻟﺨﺼﺎﺋﺺ‬ ‫بشكل‬
‫اﻟﺨﺼﺎﺋﺺ‬ ‫الدخول‬ ‫تتطلب‬
‫دراﺳﺔﻻﺑﺪ ﻣﻦ‬
‫وﻛﺬﻟﻚ‪،‬‬‫عالية ﻣﻦ‬
‫دقة ﻻﺑﺪ‬
‫وﻛﺬﻟﻚ‪،‬‬
‫اﻻﺣﺘﯿﺎج‪.‬‬ ‫عىل‬ ‫احلصول‬
‫اﻻﺣﺘﯿﺎج‪.‬ﻋﻠﻰ‬
‫اﻷﻧﺴﺐ ﺑﻨﺎء‬‫ﻮارزﻣﯿﺔ ﻋﻠﻰ‬
‫ﺐ ﺑﻨﺎء‬
‫كبريا‪ ،‬والبد من معرفة اخلوارزمية‬ ‫اختال ًفا‬
‫التصنيفاﻟﻜﻠﻤﺔ‬ ‫املستخدمة يف‬ ‫اخلوارزميات‬
‫أﻗﺴﺎم ًاﻟﻜﻠﻤﺔ أﺧﺬ‬
‫أﺧﺬ‬ ‫ﺗﺼﻨﯿﻒ‬ ‫أﻗﺴﺎم‬ ‫ﺗﺼﻨﯿﻒ‬
‫اﻟﺴﺎﺑﻖ ﻓﻲ‬ ‫اﻟﺴﺎﺑﻖ ﻓﻲ‬
‫ﻓﺎﻟﻤﺜﺎل‬ ‫ﺑﺤﺮص‪،‬‬ ‫ﻓﺎﻟﻤﺜﺎل‬ ‫ﺑﺤﺮص‪،‬‬
‫اﻟﺘﺼﻨﯿﻒ‬ ‫ﺴﺼﻨﯿﻒ‬
‫ﺘﺨﺪﻣﺔ ﻓﻲ‬
‫األنسب بناء عىل االحتياج‪ .‬وكذلك‪ ،‬البد من دراسة اخلصائص املستخدمة يف‬
‫اﻟﺨﯿﺎر ﻟﯿﺴﺖ اﻟﺨﯿﺎر‬
‫ﻟﯿﺴﺖ ﻧﻌﺮف‬ ‫ﻟﻠﺘﺼﻨﯿﻒ‪ ،‬ﻧﻌﺮف‬
‫وﻟﻜﻨﮭﺎ ﻛﻤﺎ‬ ‫ﻣﻨﺎﺳﺒﺔوﻟﻜﻨﮭﺎ ﻛﻤﺎ‬‫ﻟﻠﺘﺼﻨﯿﻒ‪،‬‬
‫ﻛﺨﺎﺻﯿﺔ‬ ‫ﻣﻨﺎﺳﺒﺔ‬
‫ﺨﺎﺻﯿﺔاﻷول‬
‫ﺮف‬
‫التصنيف بحرص‪ ،‬فاملثال السابق يف تصنيف أقسام الكلمة أخذ احلرف األول كخاصية‬
‫ﺗﻌﻤﯿﻢ‬ ‫وﺿﻌﯿﻔﺔ ﻓﻲ‬‫اﻟﺘﺪرﯾﺐ ﺗﻌﻤﯿﻢ‬
‫وﺿﻌﯿﻔﺔ ﻓﻲ‬‫ﻣﺠﻤﻮﻋﺔ‬ ‫اﻟﺘﺪرﯾﺐ‬
‫ﻣﺠﻤﻮﻋﺔ ﻋﻠﻰ‬ ‫اﻟﻨﻈﺮ ﻋﻠﻰ‬
‫ﻣﺤﺪودة اﻟﻨﻈﺮ‬ ‫ﻣﺤﺪودة ﻷﻧﮭﺎ‬
‫ﻀﻞ‪ ،‬وذﻟﻚ‬ ‫ﻧﮭﺎ‬
‫وذلك ألهنا حمدودة النظر‬ ‫األفضل‪،‬‬ ‫ليست اخليار‬ ‫نعرف‬ ‫ولكنها كام‬ ‫للتصنيف‪،‬‬ ‫مناسبة‬
‫اﻟﻮاﻗﻌﯿﺔ‪.‬وضعيفة يف تعميم جمموعة التدريب لألمثلة احلقيقية الواقعية‪.‬‬ ‫التدريب‬ ‫اﻟﻮاﻗﻌﯿﺔ‪.‬‬
‫جمموعة‬
‫اﻟﺤﻘﯿﻘﯿﺔ‬ ‫اﻟﺤﻘﯿﻘﯿﺔعىل‬
‫ﻟﻸﻣﺜﻠﺔ‬ ‫ﻟﻸﻣﺜﻠﺔاﻟﺘﺪرﯾﺐ‬
‫ﻤﻮﻋﺔ‬
‫‪discriminative‬‬ ‫ﻣﻦ اﻟﺨﻮارزﻣﯿﺔ اﻟﺘﺼﻨﯿﻔﯿﺔ أن ﺗﻜﻮن ﺗﻤﯿﯿﺰﯾﺔ ) ‪discriminative‬‬
‫ﺗﻤﯿﯿﺰﯾﺔ )‬ ‫منأن ﺗﻜﻮن‬
‫اﻟﺘﺼﻨﯿﻔﯿﺔ‬ ‫اﻟﺨﻮارزﻣﯿﺔ‬
‫متييزية (‪discriminative‬‬ ‫التصنيفية أن تكون‬ ‫اخلوارزمية‬ ‫هل املراد‬ ‫ﻼ‪ ،‬ھﻞ اﻟﻤﺮاد ﻣﻦ فمثال‪،‬‬
‫ﺧﻮارزﻣﯿﺔ (مثل خوارزمية ‪SVM‬‬ ‫ﺧﻮارزﻣﯿﺔ)ﻣﺜﻞ‬
‫النامذج التمييزية‬ ‫اﻟﺘﻤﯿﯿﺰﯾﺔ‬ ‫)ﻣﺜﻞ‬ ‫اﻟﺘﻤﯿﯿﺰﯾﺔ‬
‫اﻟﻨﻤﺎذج‬
‫‪)generative‬؟‬ ‫اﻟﻨﻤﺎذج‬
‫أم(؟توليدية (‬
‫‪(generative‬؟‬
‫‪model‬‬
‫‪generative‬‬
‫‪model‬‬ ‫‪model‬‬
‫ﺗﻮﻟﯿﺪﯾﺔ )‬
‫‪)model‬‬ ‫ﺔ)‬
‫‪ (mo‬أم‬
‫للصنفﻋﻠﻰبناء عىل البيانات املعطاة‬ ‫ﺑﻨﺎء ﻋﻠﻰ‬
‫الرشطي‬
‫ﻟﻠﺼﻨﻒ ﺑﻨﺎء‬ ‫ﻟﻠﺼﻨﻒ‬
‫االحتامل‬
‫اﻟﺸﺮطﻲ‬ ‫اﻟﺸﺮطﻲ‬
‫تستخرج‬
‫اﻻﺣﺘﻤﺎل‬ ‫اﻻﺣﺘﻤﺎل‬
‫العصبية)‬
‫ﺗﺴﺘﺨﺮج‬ ‫واﻟﺸﺒﻜﺎتﺗﺴﺘﺨﺮج‬
‫والشبكات‬
‫اﻟﻌﺼﺒﯿﺔ(‬ ‫‪SV‬اﻟﻌﺼﺒﯿﺔ(‬
‫‪)Hidden Markov Model‬‬ ‫ﻣﺎرﻛﻮف‬‫ماركوف‬‫ﻧﻤﻮذج‬ ‫نموذج‬
‫ﻣﺎرﻛﻮف‬ ‫(مثل)ﻣﺜﻞ‬ ‫التوليدية‬
‫ﻧﻤﻮذج‬ ‫)ﻣﺜﻞ‬
‫اﻟﺘﻮﻟﯿﺪﯾﺔ‬ ‫النامذج‬ ‫اﻟﻨﻤﺎذجولكن‬
‫اﻟﺘﻮﻟﯿﺪﯾﺔ‬
‫اﻟﻨﻤﺎذج‬ ‫وﻟﻜﻦ‬ ‫)𝑑𝑑|𝑐𝑐(𝑝𝑝‪،،‬‬
‫اﻟﻤﻌﻄﺎةوﻟﻜﻦ‬
‫)𝑑𝑑|𝑐𝑐(𝑝𝑝‪،‬‬
‫ﻧﺎت‬
‫نموذجا لكيفية توليد البيانات‬
‫تبني‪𝑝𝑝(𝑐𝑐,‬؛ ً‬
‫أي )𝑑𝑑‬ ‫اﻟﺼﻨﻒ ‪𝑝𝑝(𝑐𝑐,‬؛؛‬
‫واﻟﺒﯿﺎﻧﺎت‬ ‫والبيانات )𝑑𝑑‬
‫واﻟﺒﯿﺎﻧﺎت‬ ‫الصنف‬
‫اﺣﺘﻤﺎﻻت‬‫اﻟﺼﻨﻒ‬ ‫احتامالت‬
‫اﺣﺘﻤﺎﻻت‬
‫ﺗﺴﺘﺨﺮج‬ ‫تستخرج‬
‫‪(Hidden‬‬‫ﺗﺴﺘﺨﺮج‬ ‫‪(Hidden‬‬
‫‪Markov‬‬ ‫‪MoM‬‬
‫نمذجتها للبيانات واألصناف‪.‬‬ ‫بناء عىل‬
‫اﻟﺠﺪﯾﺪة ﻻﺣﻘًﺎ‬ ‫الح ًقا‬
‫ﻻﺣﻘًﺎ‬
‫اﻟﺒﯿﺎﻧﺎت‬ ‫اجلديدة‬
‫اﻟﺠﺪﯾﺪة‬
‫ﺗﺼﻨﻒ‬ ‫البياناتﺛﻢ‬
‫اﻟﺒﯿﺎﻧﺎت‬ ‫ﺗﺼﻨﻒ‬
‫واﻷﺻﻨﺎف‬ ‫تصنف‬ ‫ﺛﻢ‬ ‫واألصناف ثم‬
‫واﻷﺻﻨﺎف‬
‫اﻟﺒﯿﺎﻧﺎت‬ ‫ﺗﻮﻟﯿﺪﺟًﺎاﻟﺒﯿﺎﻧﺎت‬
‫ﻟﻜﯿﻔﯿﺔ ﺗﻮﻟﯿﺪ‬ ‫ﻜﯿﻔﯿﺔ ﻧﻤﻮذ‬
‫ﺗﺒﻨﻲ‬
‫تدري ًبا وأسهل يف دمج خصائص خمتلفة‪،‬‬ ‫وأرسع‬ ‫أعىل دقة‬ ‫ﺗﺘﻤﯿﺰ التمييزية بأهنا‬
‫واﻷﺻﻨﺎف‪.‬النامذج‬
‫تتميز‬
‫اﻟﺘﻤﯿﯿﺰﯾﺔدﻗﺔﺑﺄﻧﮭﺎ أﻋﻠﻰ دﻗﺔ‬
‫ﺑﺄﻧﮭﺎ أﻋﻠﻰ‬ ‫اﻟﺘﻤﯿﯿﺰﯾﺔ‬
‫اﻟﻨﻤﺎذج‬ ‫اﻟﻨﻤﺎذج ﺗﺘﻤﯿﺰ‬
‫ﻟﻠﺒﯿﺎﻧﺎت واﻷﺻﻨﺎف‪.‬‬ ‫ﻧﻤﺬﺟﺘﮭﺎ‬‫ﻟﻠﺒﯿﺎﻧﺎت‬
‫ﻋﻠﻰ‬
‫تستطيع توليد بيانات شبيهة (أي ال يمكنها‬ ‫ﺗﺤﺘﺎج إﻟﻰ‬
‫وال‬ ‫أكثر‬ ‫بيانات‬
‫اﻟﻤﻘﺎﺑﻞ‬
‫إىل‬ ‫حتتاج‬
‫وﻟﻜﻨﮭﺎ ﻓﻲ‬
‫املقابل‬
‫ﻣﺨﺘﻠﻔﺔ‪،‬‬
‫يف‬ ‫ولكنها‬
‫اﻟﻤﻘﺎﺑﻞ ﺗﺤﺘﺎج إﻟﻰ‬ ‫وﻟﻜﻨﮭﺎ ﻓﻲ‬ ‫ﻣﺨﺘﻠﻔﺔ‪،‬‬ ‫ﺧﺼﺎﺋﺺ‬ ‫ﺧﺼﺎﺋﺺدﻣﺞ‬
‫ﺗﺪرﯾﺒًﺎدﻣﺞوأﺳﮭﻞ ﻓﻲ‬
‫ﺳﮭﻞ ﻓﻲ‬
‫ﺮع‬
‫توليد كلمة شبيهة بناء عىل جمموعة من اخلصائص)(‪.)Ng & Jordan, 2002‬‬
‫‪117‬‬ ‫‪117‬‬

‫‪-106-‬‬
‫كام أن اخلوارزميات نفسها ختتلف يف أدائها‪ .‬فعند تصنيف سالسل البيانات‪ ،‬البد‬
‫من اختيار خوارزمية تأخذ باالعتبار التسلسل مثل الشبكات العصبية التكرارية (مقابل‬
‫الشبكات العصبية األصلية)‪ .‬كام أن طريقة الربط بني النامذج املختلفة للكلمة (مثل‬
‫التجزئة وتوسيم قسم الكالم) مؤثر عىل النتيجة‪ .‬فمن البدهيي‪ ،‬أن كل مهمة الحقة‬
‫تعتمد عىل نتائج املهمة السابقة‪ ،‬مما يؤدي إىل أن األخطاء املولدة يف املهام السابقة ستؤثر‬
‫سل ًبا عىل املهام الالحقة‪ .‬وهلذا السبب عمد بعض الباحثني إىل بناء نامذج تصنف عمليتني‬
‫يف اآلن ذاته (‪ )Kudo & Matsumoto, 2001‬الذي أثبت نجاعته يف نمذجة الكلمة‬
‫العربية حتديدً ا )‪ . (Algahtani & McNaught, 2015‬ويف السنوات األخرية‪ ،‬انترش‬
‫مفهوم النموذج املتكامل ‪ End-to-end model‬بفضل التقدم يف جمال التعلم العميق يف‬
‫الشبكات العصبية‪ ،‬والذي يتيح تدريب جمموعة نامذج خمتلفة للكلمة (مع إمكانية قياس‬
‫دقة كل نموذج بشكل مستقل)‪ .‬هذا املفهوم أثبت مثال أن تعلم اآللة للشجرة اإلعرابية‬
‫مفيد يف زيادة دقة تصنيف قسم الكالم (‪.)Zhang, Li, Barzilay, & Darwish, 2015‬‬

‫باإلضافة إىل اختيار اخلوارزمية األنسب‪ ،‬فإن البيانات نفسها واستخراج اخلصائص‬
‫كبريا يف دقة النمذجة‪ .‬ومن أشهر مصادر البيانات لتعلم اآللة النمط‬‫دورا ً‬‫منها تلعب ً‬
‫كم كبري من‬‫اللغوي‪ :‬البنوك اإلعرابية الشجرية ‪Treebanks‬؛ وهي حتتوي عىل ٍّ‬
‫التوسيامت عىل مستوى الكلمة‪ :‬معجم ًيا (أصل الكلمة)‪ ،‬ورصف ًيا (قسم الكلمة‬
‫واخلصائص الرصفية باإلضافة إىل بيان اللواصق وأجزاء الكلمة)‪ ،‬وإعراب ًيا (العالقات‬
‫بني الكلامت أو تركيبة اجلملة)‪.‬‬
‫أشهر البنوك اإلعرابية البنك الشجري العريب من بنسلفينيا (‪Maamouri( )PATB‬‬
‫‪ ،)& Bies, 2004‬الذي حيتوي عىل نصوص إخبارية (ما يقارب ‪ 750‬ألف كلمة)‬
‫باللغة العربية املعارصة جمزأة ومسومة بتشكيل الكلمة وأصل الكلمة (حتديدً ا املدخل‬
‫املعجمي ‪ )Lemma‬وقسم الكلمة واخلصائص الرصفية طب ًقا ملجموعة أصناف تيم‬
‫بكولرت باإلضافة إىل شجرة اإلعراب لكل مجلة (‪ .(contingency treebank‬كام أن‬
‫(((‬
‫هناك مصادر أخرى مثل تلك املتاحات ضمن موقع شجرات اإلعراب العاملي‬
‫وجدول ‪ 1‬يرسد أشهر البيانات املتاحة املوسومة‪.‬‬

‫‪1- http://universaldepdencies.com‬‬

‫‪-107-‬‬
‫مرجع‬ ‫نوع النص‬ ‫عدد‬ ‫األصناف‬ ‫متاح‬ ‫االسم‬
‫الكلامت‬
‫‪(Elhadj, Al-‬‬ ‫قرآين‬ ‫‪ ٧٧‬ألف‬ ‫جتزيء النص‬ ‫ال‬ ‫جامعة اإلمام‬
‫‪Sughaiyer,‬‬ ‫دون توسيمه‬
‫& ‪Khorsi,‬‬
‫)‪Alansari, 2010‬‬
‫)‪(Sawalha, 2011‬‬ ‫قرآين‬ ‫ألف‬ ‫أصنافه اخلاصة‬ ‫نعم‬ ‫سلمى‬
‫‪(Mohamed,‬‬ ‫قرآن‪ ،‬سنة‪،‬‬ ‫‪ ٢٧‬ألف‬ ‫بنسلفينيا‬ ‫عند‬ ‫الذخرية‬
‫)‪2012‬‬ ‫والفلسفة‬ ‫الطلب‬ ‫الدينية‬
‫‪(Dukes, Atwell,‬‬ ‫قرآين‬ ‫‪ ٧٧‬ألف‬ ‫أصنافه اخلاصة‬ ‫نعم‬ ‫الذخرية‬
‫)‪& Habash, 2013‬‬ ‫القرآنية‬
‫& ‪(Zeroual‬‬ ‫قرآين‬ ‫‪ ٧٧‬ألف‬ ‫أصنافه اخلاصة‬ ‫نعم‬ ‫املصحف‬
‫)‪Lakhouaja, 2016‬‬ ‫(حملل اخلليل)‬
‫)‪(Khoja, 2001‬‬ ‫أخبار‬ ‫‪ ٥٠‬ألف‬ ‫أصنافه اخلاصة‬ ‫عند‬ ‫ذخرية‬
‫الطلب‬ ‫خوجة‬
‫‪(Maamouri, Bies,‬‬ ‫أخبار‬ ‫‪٧٥٠‬‬ ‫البنك الشجري‬ ‫باشرتاك‬ ‫بنسلفينيا‬
‫‪Buckwalter, Jin,‬‬ ‫ألف‬ ‫من بنسلفينيا‬ ‫مدفوع‬
‫)‪& Mekki, 2005‬‬ ‫(حملل بكولرت)‬
‫‪(Hajic, Smrz,‬‬ ‫أخبار‬ ‫‪١١٣‬‬ ‫أصنافه‬ ‫متاح‬ ‫براغ‬
‫‪Zemánek,‬‬ ‫ألف‬ ‫اخلاصة(حملل‬
‫& ‪Šnaidauf,‬‬ ‫إكسري)‬
‫)‪others, 2004‬‬
‫‪(Habash & Roth,‬‬ ‫أخبار‬ ‫مليون*‬ ‫أصنافه اخلاصة‬ ‫باشرتاك‬ ‫كاتب‬
‫)‪2009‬‬ ‫قليلة‬ ‫مدفوع‬ ‫(كولومبيا)‬
‫‪(Yaseen et al.,‬‬ ‫‪ ١٣‬جماال‬ ‫‪٥٠٠‬‬ ‫أصنافه اخلاصة‬ ‫مدفوع‬ ‫نيمالر‬
‫)‪2006‬‬ ‫ألف‬
‫‪(Schneider,‬‬ ‫ويكيبيديا‬ ‫‪ ٣٦‬ألف‬ ‫كاتب‬ ‫نعم‬ ‫أقامر‬
‫& ‪Mohit, Oflazer,‬‬
‫)‪Smith, 2012‬‬

‫جدول ‪ :1‬قائمة بالبيانات العربية املوسومة بالتحليل اللغوي‪.‬‬

‫‪-108-‬‬
‫(خصوصا البنك ‪ )PATB‬مستخدمة بكثرة يف تدريب‬ ‫ً‬ ‫كل هذه البيانات وغريها‬
‫خوارزميات متنوعة لنمذجة اللغة ومن أشهرها املحلالت الرصفية‪ .‬وألن تركيز هذه‬
‫الورقة عىل اخلوارزميات ال البيانات (التي هي خارج إطار هذا البحث)‪ ،‬فإنه يكفينا أن‬
‫نبني اختالفات ملحوظة جيب االنتباه هلا عند تطوير أو أخذ خوارزمية بعني االعتبار‪:‬‬
‫Ÿ Ÿالبيانات ليست كلها متاحة للتحميل‪ ،‬فبعضها جماين ومفتوح‪ ،‬وبعضها يمكن‬
‫احلصول عليه مبارشة من الباحث‪ ،‬وبعضها البد من اشرتاك مدفوع يف املؤسسة‬
‫املانحة (مثل شجرة ‪.)PATB‬‬
‫Ÿ Ÿختتلف طريقة توسيم البيانات بشكل كبري جدً ا‪ .‬وكل اختالف يف مستوى لغوي‬
‫أبسط يؤثر يف املستويات الالحقة‪ .‬فمثال‪ ،‬االختالف يف طريقة جتزئة النص‬
‫يؤدي إىل االختالف يف أصناف قسم الكلمة مما يؤدي إىل االختالف يف الشجرة‬
‫اإلعرابية‪.‬‬
‫Ÿ Ÿسالسل البيانات عادة ما تكون موسومة برموز تصف هذه السالسل‪ ،‬لكن‬
‫ختتلف البيانات يف أين يكون توسيم «جزيئات» النصوص ‪ ،token‬فقد تكون‬
‫ٍ‬
‫الكلامت أو أجزاء منها أو حتى احلروف املكونة هلا‪.‬‬ ‫عىل مستوى‬
‫أساسا للتوسيم‪ ،‬فإن حتديد اجلزء األصيل من الكلمة من‬
‫ً‬ ‫Ÿ Ÿعند اعتبار الكلامت‬
‫غريه من اللواصق قد يكون مشكال‪ .‬مثل حتديد اجلزء األصيل يف الكلمة‪:‬‬
‫«معهم»‪ ،‬هل هو حرف اجلر أو الضمري‪.‬‬
‫Ÿ Ÿعادة ما يبنى التوسيم الرصيف يف البنوك الشجرية طب ًقا ملحلل رصيف يسهل‬
‫عملية التوسيم‪ .‬فبدال من أن تكون يدوية بالكامل‪ ،‬فإن الواسم خيتار أحد‬
‫التحليالت الرصفية املقرتحة من املحلل‪ .‬كام بإمكانه إضافة حتليل جديد إذا مل‬
‫جيد مبتغاه‪ .‬معرفة املحلل الرصيف وخصائصه مهمة‪ ،‬حيث إن تأثريه عىل البنك‬
‫الشجري بالغ‪.‬‬
‫Ÿ Ÿال ينبغي االعتامد عىل األصناف املوجودة يف البنك الشجري عند بناء حملل ما‪.‬‬
‫ولكن جيب َق ْص األصناف عىل املطلوبة فقط لتحقيق اهلدف النهائي‪.‬‬

‫‪-109-‬‬
‫‪ 3.1‬املحلالت الرصفية‬
‫يف هذا القسم‪ ،‬تناقش الورقة طر ًقا مستخدمة يف نمذجة اللغة (وحتديدً ا يف املحلالت‬
‫الرصفية) ونحلل أربعة من أشهر املحلالت اللغوية العربية‪ ،‬وهي حتديدً ا‪ :‬مدامريا‪،‬‬
‫أمرية‪ ،‬ستانفورد‪ ،‬وفراسة‪.‬‬
‫املحلالت الرصفية نوعان‪ :‬ترميزي (حيث يقرر املحلل التحليل الرصيف األنسب‬
‫للكلمة‪ ،‬انظر أشهرها يف جدول ‪ )3‬ومعجمي (حيث يرسد املحلل التحليالت املمكنة‬
‫للكلمة دون االختيار أو التفضيل انظر أشهرها يف جدول ‪ .)2‬املحلالت الرصفية‬
‫األربعة هي من الصنف األول‪ ،‬وجتتمع كلها يف أن التدريب قد تم عىل البنك الشجري‬
‫من بنسلفينيا وعىل تصغري عدد األصناف املستخدمة يف البنك‪ .‬ولكن كل حملل خيتلف‬
‫يف تصميمه وطريقة نمذجة الكلمة واخلصائص التي يقدمها ويتنبأ هبا‪ ،‬انظر جدول ‪.3‬‬
‫‪AraComLex‬‬ ‫‪Elixir‬‬ ‫‪AlKhalil‬‬ ‫‪Buckwalter‬‬
‫اخلاصية‬
‫أراكوملكس‬ ‫إكسري‬ ‫اخلليل‬ ‫بكولرت‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫صنف الكلمة‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نوع الفعل‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫اإلسناد‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫اجلنس‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫العدد‬
‫نعم‬ ‫‪-‬‬ ‫نعم‬ ‫‪-‬‬ ‫التعدية‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫البناء للمجهول‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫التعريف‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫إعراب الفعل‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫إعراب االسم‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫‪-‬‬ ‫الوزن‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫‪-‬‬ ‫اجلذر‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫اجلذع‬
‫املدخل‬
‫‪-‬‬ ‫‪-‬‬ ‫نعم‬ ‫نعم‬
‫املعجمي‬

‫‪-110-‬‬
‫‪AraComLex‬‬ ‫‪Elixir‬‬ ‫‪AlKhalil‬‬ ‫‪Buckwalter‬‬
‫اخلاصية‬
‫أراكوملكس‬ ‫إكسري‬ ‫اخلليل‬ ‫بكولرت‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫التشكيل‬
‫مصطلح‬
‫‪-‬‬ ‫نعم‬ ‫‪-‬‬ ‫نعم‬
‫إنجليزي‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫التجزي‬
‫مستوى الكلمة‬ ‫مستوى اجلزء‬ ‫مستوى الكلمة‬ ‫مستوى الكلمة‬ ‫نوع التوسيم‬
‫‪(Boudchiche,‬‬
‫‪Mazroui,‬‬
‫(‪Buckwalter,‬‬
‫(‪)Attia, 2006‬‬ ‫(‪)Smrz, 2007‬‬ ‫‪Bebah,‬‬
‫‪)2002‬‬
‫مرجع‬
‫& ‪Lakhouaja,‬‬
‫)‪Boudlal, 2016‬‬

‫جدول ‪ :2‬خصائص أشهر املحلالت الرصفية العربية املعجمية (التي ال تزيل الغموض)‪.‬‬

‫مضمن‬
‫َّ‬ ‫يتميز حملل مدامريا يف أن حتليله الرصيف يعتمد عىل حملل رصيف معجمي‬
‫يف داخله (نسخة مطورة من املحلل املشهور بكولرت)‪ .‬ففي بداية عمله‪ ،‬يقوم مدامريا‬
‫بتوقع نتائج التصنيفات ألقسام الكلمة وجمموعة من اخلصائص الرصفية‪ ،‬ثم يقوم‬
‫املضمن واختيار األنسب‪ .‬كام يتميز بأن العملية‬
‫َّ‬ ‫بعدها بمقارنة النتائج مع نتائج املحلل‬
‫التصنيفية تتم عىل مستوى الكلمة ال عىل مستوى اجلزء‪ ،‬فال يوجد جتزيء للكلمة قبل‬
‫تعي اللواصق للكلمة (تفرتض أن للكلمة أربع سوابق‪،‬‬ ‫التحليل‪ ،‬ولكن نتائج التحليل ّ‬
‫املضمن مكنه من رفع مستوى‬‫َّ‬ ‫والحقة واحدة بحد أقىص)‪ .‬اعتامد مدامريا عىل املحلل‬
‫تعرف املحلل املضمن عىل الكلمة‪ .‬كام أن اعتامده عىل‬
‫النتائج‪ ،‬لكن هذا حمدود يف حال ّ‬
‫التحليل عىل مستوى الكلمة قلل من تأثري األخطاء املتولدة عند التجزئة عىل مرحلة‬
‫التوسيم الرصيف‪.‬‬
‫حملل أمريا اختار طريقة التجزئة والتوسيم يف آن واحد وذلك عىل عرب جتزئة الكلمة‬
‫إىل حروف ثم تعيني مكان ووسم احلرف ثم جتميع الكلمة بناء عىل مكان أحرفها‪ .‬فمثال‬
‫ـم‪/‬ضمري_أساس‪ .‬أما‬ ‫ـهـ‪/‬ضمري_أساس ْ‬ ‫الكلمة َف ُه ْم ستصبح َفـ‪/‬عطف_سابق‪ُ ١‬‬
‫حملال ستانفورد وفراسة فإهنام اعتمدا النظام اخلطي حيث التجزئة تسبق التوسيم مع‬
‫مت ّيز فراسة باعتامده عىل كثري من املعاجم والفهارس لتيسري عملية التحليل‪.‬‬

‫‪-111-‬‬
‫فراسة‬ ‫أمرية‬ ‫ستانفورد‬ ‫مدامريا‬ ‫االسم‬
‫نعم‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫صنف الكلمة‬
‫‪-‬‬ ‫نعم‬ ‫نعم إال للمجهول‬ ‫نعم‬ ‫نوع الفعل‬
‫‪-‬‬ ‫نعم‬ ‫‪-‬‬ ‫نعم‬ ‫املخاطب واملتكلم والغائب‬
‫نعم لألسامء‬ ‫نعم‬ ‫‪-‬‬ ‫نعم‬ ‫اجلنس‬
‫نعم لألسامء‬ ‫نعم‬ ‫مفرد ومجع فقط‬ ‫نعم‬ ‫العدد‬
‫‪-‬‬ ‫نعم‬ ‫نعم‬ ‫نعم‬ ‫املعلوم واملجهول‬
‫‪-‬‬ ‫‪-‬‬ ‫‪-‬‬ ‫نعم‬ ‫التعريف‬
‫‪-‬‬ ‫‪-‬‬ ‫‪-‬‬ ‫نعم‬ ‫إعراب الفعل‬
‫‪-‬‬ ‫‪-‬‬ ‫‪-‬‬ ‫نعم‬ ‫إعراب االسم‬

‫جدول ‪ :3‬خصائص أشهر املحلالت الرصفية املرمزة‬

‫‪ -4‬نمذجة الكلمة توزيع ًيا‬


‫نمذجة الكلمة لغويا كام يف الفصول املاضية‪ ،‬أنتجت لنا قيام لغوية معينة لكل‬
‫خاصية من اخلصائص اللغوية للكلمة‪ .‬فمثال‪ ،‬أصبحت كلمة «ضارب» يف اجلملة‪:‬‬
‫«كان ضارب الناس أجنبيا» ممثلة بالشكل التايل‪:‬‬
‫ِ‬
‫التشكيل=ضارب‪ ،‬احلالة=مرفوع‪،‬‬ ‫<الوزن=فاعل‪ ،‬قسم_الكلمة=اسم‪،‬‬
‫العدد=مفرد‪ ،‬وغريها>‬
‫هذه النمذجة مبنية عىل تصنيف اإلنسان والذي تطور عرب دراسة اللغة عرب العصور‪.‬‬
‫يف هذا القسم سندرس طريقة خمتلفة لنمذجة الكلمة‪ ،‬تتجاوز التمثيل اللغوي‪ ،‬إىل‬
‫استخراج متثيل مبني عىل نصوص اللغة‪.‬‬
‫يعيب التمثيل اللغوي للكلمة أنه يعترب متثيال تصنيفيا ال متثيال رقميا‪ .‬فمثال‪ ،‬ال‬
‫يمكننا اعتبار املرفوع رقام كالواحد واملنصوب كاالثنني واملجرور كالثالثة‪ ،‬وذلك ألن‬
‫ذلك يقتيض أن هناك ترتي ًبا معينًا بني القيم الثالث‪ .‬والتصنيف ال يقتيض أي ترتيب‬
‫بني األصناف (رغم أن األصناف عادة ليست بنفس التباعد)‪ .‬هذا األمر ينطبق عىل‬
‫مفردات اللغة نفسها‪ .‬فال يمكننا حتويل كلامت اللغة إىل أرقام مبارشة وحلل هذا األمر‪،‬‬

‫‪-112-‬‬
‫طور الباحثون طرق ًا عديدة لتمثيل الكلمة كمتجه رقمي ‪ .numerical vector‬ما يميز‬
‫املتجه الرقمي (كاألرقام) عن الصنف‪ ،‬أنه يتيح لنا القيام بعدد من العمليات الرياضية‬
‫كحساب املسافة بني متجهني‪.‬‬

‫‪ 4.1‬التمثيل الكالسيكي للكلمة‬


‫اخليار األول هو متثيل كل كلمة بمتجه طويل (طوله عدد مفردات اللغة) ذو قيم‬
‫كلها أصفار ما عدا عمود واحد‪ .‬يمكننا تسمية هذا املتجه باملتجه ذو الرقم الواحد‬
‫‪ .one-hot encoding‬ولنرضب مثاالً عىل هذا املتجه‪ :‬لو افرتضنا أن عدد كلامت اللغة‬
‫ثالث كلامت‪« :‬فرس‪ ،‬حائط‪ ،‬حصان» فإن الكلمة األوىل متثل باملتجه <‪>1.0.0‬‬
‫والثاين <‪ >0.0.1‬وهكذا‪.‬‬
‫يعيب هذا اخليار أنه يفرتض مسافة واحدة بني أي كلمتني يف اللغة‪ .‬ولكن احلقيقة‬
‫هي أن الفرس أقرب إىل احلصان منه إىل احلائط‪ .‬بإمكاننا للحصول عىل مثل هذا‬
‫التمثيل‪ ،‬االستناد إىل نظريات «دالالت التوزيع» ‪ .distributional semantics‬هذه‬
‫النظرية تستند إىل القول بأن العنارص اللغوية ذات التوزيع نفسه هلا املعنى نفسه‪.‬‬
‫أحد األمثلة عىل التمثيل التوزيعي‪ ،‬التمثيل الكالسيكي املبني عىل توارد الكلامت‬
‫‪ .Co-occurrence‬فإذا كان الفرس واحلصان يشرتكان يف الكلامت املتواردة معهام‪،‬‬
‫فإن هلام املعنى نفسه‪ .‬فمثال‪ ،‬قد نجد أن كالمها يردان مع الكلامت‪ :‬حذوة‪ ،‬رسج‪ ،‬إلخ‬
‫فنستدل أن هلام معنى متقار ًبا‪.‬‬
‫ويف التمثيل التوزيعي الكالسيكي‪ ،‬يتم بناء مصفوفة مربعة طوهلا وعرضها عدد‬
‫مفردات اللغة‪ .‬ويف كل خانة يتم تعداد عدد املرات التي وردت فيها كلمة ما يف سياق‬
‫كلمة أخرى‪ .‬وبذلك أصبح متثيل كل كلمة هو الصف املستخرج من هذه املصفوفة‪.‬‬
‫اجلدول أدناه مثال عىل املصفوفة للمثال السابق‪.‬‬

‫‪-113-‬‬
‫حصان‬ ‫حائط‬ ‫فرس‬
‫‪2‬‬ ‫‪1‬‬ ‫‪0‬‬ ‫فرس‬
‫‪0‬‬ ‫‪0‬‬ ‫‪1‬‬ ‫حائط‬
‫‪0‬‬ ‫‪0‬‬ ‫‪2‬‬ ‫حصان‬

‫جدول ‪ :4‬مثال عىل مصفوفة توارد الكلامت‪ .‬اخلانة الرقمية يف الزاوية العليا اليرسى تعني أن كلمة‬
‫حصان وردت مرتان يف سياق كلمة فرس‪ .‬التمثيل املتجهي لكلمة فرس هو <‪.>0.1.2‬‬

‫خصوصا يف اللغات الغنية‬


‫ً‬ ‫مما يعيب مصفوفة توارد الكلامت هو حجمها الكبري‪،‬‬
‫رصف ًيا‪ ،‬وفقرها من ناحية متثيل الكلمة لتباعد املفردات ‪ ،sparseness‬فكل أشكال‬
‫الكلامت تدخل يف عدد مفردات اللغة والتوارد بني هذه األشكال أكثر األحيان معدوم‪.‬‬
‫وهذا جيعلها مكلفة وغري عملية عند مترين كثري من اخلوارزميات‪.‬‬

‫‪ 4.2‬مضامني الكلمة‬
‫مؤخرا‪ ،‬ظهر متثيل حديث للكلمة ُس ِّم َي بمضامني الكلمة ‪ word embedding‬يتميز‬ ‫ً‬
‫بكونه عميل ورسيع مع احلفاظ عىل متثيل داليل جيد للكلمة‪ ،‬وأشهر أداة تنتج هذه املضامني‬
‫هي ‪ .)Mikolov, Sutskever, Chen, Corrado, & Dean, 2013( word2vec‬وهذا‬
‫التمثيل يعتمد عىل خوارزمية الذكاء االصطناعي‪ :‬الشبكات العصبية‪.‬‬
‫الناتج النهائي من خوارزميات مضامني الكلمة هو متثيل كل كلمة من كلامت اللغة‬
‫بمتجه رقمي طوله حمدد (عادة ما يكون ‪ ٣٠٠‬عنرص رقمي) بحيث تكون الكلامت‬
‫ذات املعاين املتقاربة ذات رضب نقطي للمتجهني يقرتب من الواحد (أي أن الزاوية‬
‫بني املتجهني تساوي أو تقرتب من الصفر)‪.‬‬
‫هذا الطريقة يف تسهيل التعامل مع الكلامت عرب حتويلها إىل متجهات رقمية يمكن‬
‫استخدامها كذلك يف األصناف اللغوية (أو أية قيم تصنيفية ‪)categorical data‬‬
‫(ويف هذه احلالة تسمى الطريقة بناء املتجه الكثيف)‪ .‬فاملشهور هو استخدام املتجه‬
‫ذو الرقم الواحد ‪ one-hot encoding‬هلذه األنواع من البيانات‪ .‬وهذا التمثيل ال‬
‫خصوصا عند وجود عدد كبري من األصناف‪ .‬فمثال‪ ،‬نرش تشن وماننق بحث ًا بأن‬
‫ً‬ ‫يصلح‬
‫استخدام املتجه الكثيف (أو املضامني) سبب رسعة أكرب يف إعراب الكلامت ‪syntactic‬‬

‫‪-114-‬‬
‫‪ .parsing‬كام نرش أحد الباحثني استخداما ملضامني قسم الكلمة (بدال من قسم الكلمة‬
‫نفسه) من أجل نمذجة اجلمل والفقرات(‪.)Yu, 2016‬‬

‫‪ 4.3‬إنشاء مضامني الكلمة‬


‫اخلوارزمية ‪ word2vec‬تتكون من عدة مراحل‪ .‬يف املرحلة األوىل‪ ،‬جترد اخلوارزمية‬
‫كل املفردات الواردة يف الذخرية اللغوية‪ .‬ثم تستخرج سياقات كل كلمة من نافذة حمددة‬
‫(مثال الكلمتني املجاورتني للكلمة) فتبني منها جدوال يبني توارد الكلامت‪ ،‬كاجلدول‬
‫أدناه‪.‬‬
‫التوارد‬ ‫كلمة السياق‬ ‫الكلمة املعنية‬
‫‪1‬‬ ‫الرباق‬ ‫حائط‬
‫‪1‬‬ ‫يرتبط‬ ‫حائط‬
‫‪...‬‬
‫‪1‬‬ ‫بقصة‬ ‫اإلرساء‬
‫‪1‬‬ ‫واملعراج‬ ‫اإلرساء‬

‫جدول ‪ :5‬استخراج سياقات يف العبارة‪« :‬بالنسبة للمسلمني‪ ،‬يرتبط حائط الرباق بقصة اإلرساء‬
‫واملعراج» مع اعتبار السياق الكلمتني املجاورتني للكلمة‪.‬‬

‫ثم تقوم اخلوارزمية ببناء مصفوفتني‪ :‬مصفوفة مضامني الكلمة املعنية (عادة الكلمة‬
‫طول بعدد مفردات‬‫الوسطى)‪ ،‬ومصفوفة مضامني كلامت السياق‪ .‬كال املصفوفتني هلام ٌ‬
‫اللغة‪ ،‬وعرض بحسب طول املتجه النهائي املطلوب (عادة ‪ .)٣٠٠‬كال املصفوفتني‬
‫ينشآن بأرقام عشوائية ابتدائية‪.‬‬
‫يتم التدريب عن طريق أخذ الكلامت كلمة كلمة‪ .‬ولكل كلمة ينشأ جدول السياقات‬
‫مع إضافة سياقات خاطئة سلبية ‪ negative sampling‬ذات توارد صفري‪.‬‬
‫هناك نمطان للخوارزمية‪ :‬النمط األول رزمة الكلامت ‪continous bag of words‬‬
‫)‪ )CBOW‬وهبا ُيتنبأ بالكلمة املعنية من سياقها‪ ،‬والنمط الثاين ‪ skipgram‬حياول أن‬
‫يتنبأ بالسياق من كلمة معينة‪.‬‬

‫‪-115-‬‬
‫لو أخذنا النمط الثاين يف االعتبار‪ ،‬فإن اخلوارزمية ستقوم بعد ذلك برضب نقطي‬
‫بني مضمون الكلمة املعنية مع مضامني كلامت السياق (أي أهنا حتسب مقدار الزاوية‬
‫بني هذه الكلامت)‪ .‬ومن ثم يتم حساب اخلطأ يف الناتج من الرضب (جيب أن يساوي‬
‫وصفرا للسياقات السلبية)‪ .‬بعد ذلك‪ ،‬ستقوم اخلوارزمية‬
‫ً‬ ‫واحدً ا للسياقات اإلجيابية‬
‫بتعديل املضامني يف كال املصفوفتني لتقليل هذا اخلطأ‪.‬‬
‫تستمر املضامني يف التحسن بينام تعاد هذه العملية لكل كلمة يف الذخرية اللغوية‪،‬‬
‫وأحيانا تعاد لعدة دورات عىل كامل الذخرية ‪ .epochs‬الناتج النهائي من اخلوارزمية‬
‫هي مصفوفة الكلمة املعنية وفيها متثيل لكل كلمة بشكل متجه رقمي‪.‬‬

‫‪ 4.4‬تقييم مضامني الكلمة‬


‫بمجرد إنشاء هذه املتجهات يمكننا استخراج أقرب الكلامت لكلمة ما وفحص‬
‫جودة التمثيل‪ .‬وهناك طرق علمية لتقييم هذا التمثيل الرقمي للكلمة منها التناظر‬
‫اللفظي‪ ،‬االختيار األمثل للكلمة ضمن سياق‪ ،‬والقاموس العكيس‪.‬‬
‫يف التناظر اللفظي‪ُ ،‬يعطى احلاسب كلمتني متناظرتني (دون حتديد سبب التناظر) ثم‬
‫ُيطلب منه الكلمة املناظرة لكلمة ثالثة‪ .‬وكمثال‪ ،‬يعطى الكلمتان املتضادتان حار‪:‬بارد‪،‬‬
‫ويطلب منه املناظر لكلمة أعىل (أسفل)‪ .‬هذه الطريقة تقيس جودة متثيل العالقات بني‬
‫الكلامت ويتم تنفيذها عرب عمليات رياضية مثل اجلمع والطرح‪.‬‬
‫هلذه اخلوارزمية عدة عوامل تؤثر يف عملية التدريب‪ ،‬منها‪ :‬النمط املستخدم وطول‬
‫نافذة الكلامت‪ .‬النمط األول أرسع مترينًا وعادة ما يكون للذخرية اللغوية الطويلة‬
‫ويمثل الكلامت املتكررة بشكل أفضل‪ .‬أما النمط الثاين فيتميز بأنه يمثل الكلامت‬
‫يقرب بني الكلامت القابلة للتبديل‬
‫النادرة بشكل أفضل‪ .‬طول النافذة القصري عادة ما ّ‬
‫يقرب الكلامت املتعلقة ببعضها‪.‬‬
‫بني بعضها البعض‪ ،‬وطول النافذة الطويل عادة ما ّ‬

‫‪ 4.5‬تطور مضامني الكلمة‬


‫ٍ‬
‫لكثري من األبحاث التي تعالج جوانب‬ ‫كانت هذه اخلوارزمية بمثابة الرشارة‬
‫القصور فيها وتطور نامذج أكثر دقة يف متثيل الكلمة‪.‬‬
‫أحد جوانب القصور يف اخلوارزمية أهنا ال تأخذ الرتتيب يف كلامت السياق وال‬

‫‪-116-‬‬
‫تأخذ تركيبة الكلمة باالعتبار عند التدريب‪ .‬وهاتان اخلاصيتان حتديدً ا مهمتان يف اللغة‬
‫مهم يف معنى الكلمة‪ ،‬كام أن بعض السوابق‬ ‫دورا ً‬
‫العربية‪ ،‬حيث إن وزن الكلمة يلعب ً‬
‫واللواحق مؤثرة يف املعنى (مثل التاء املربوطة)‪.‬‬
‫من العيوب املشتهرة عن اخلوارزمية أهنا ال تفرق بني املتشاهبات اللفظية‬
‫‪ .homographs‬فمثال املتجه الناتج لكلمة «عني» سيكون خمتال‪ ،‬وذلك ألن الكلمة هلا‬
‫ٍ‬
‫معان تأيت يف سياقات متباينة‪ .‬ففي آلية عمل اخلوارزمية‪ ،‬تقوم اخلوارزمية بتصحيح‬ ‫عدة‬
‫معامل اخلطأ كل مرة ترد فيها الكلمة بيشء مناسب للكلامت املصاحبة (يف السياق)‪.‬‬
‫ولكن الكلمة هلا سياقات متباينة مما يؤدي إىل إنتاج متجه رقمي وسطي (حسب عدد‬
‫مرات تكرار كل معنى)‪.‬‬
‫أيضا‪ ،‬حمدودية اخلوارزمية عىل الكلامت التي وردت يف الذخرية التي‬ ‫ومن العيوب ً‬
‫تم التدريب عليها‪ .‬فهي ليست تعميم َّية بحيث يمكنها التنبؤ بالكلامت التي مل ترد ساب ًقا‬
‫يف الذخرية‪.‬‬
‫من أجل ذلك قام باحثون بتطوير عدة نامذج معدلة عىل الصيغة األساسية‪ .‬من‬
‫ذلك حزمة ‪ fastText‬التي طورها باحثون يف رشكة فيسبوك‪ ،‬والتي ال تكتفي بتمثيل‬
‫الكلامت بشكلها النهائي ولكن تأخذ أبعاض الكلمة (‪ )subword‬بعني االعتبار‪.‬‬
‫فتمثيل الكلمة الناتج عن هذه احلزمة هو مبني عىل كل أبعاضها الكتابية سواء احلروف‬
‫أو األبعاض الثنائية ‪ bigram‬أو الثالثية أو حتى أكثر من ذلك‪ .‬فمثال‪ ،‬التمثيل اخلاص‬
‫بكلمة «خيل» سيتكون من جمموع متثيل كل حرف من حروفها الثالثة‪ ،‬باإلضافة إىل‬
‫متثيل َب ْع َض ْيها «خي» و «يل»‪ .‬هذه احلزمة أفضل من سابقتها كوهنا تأخذ الرصف يف‬
‫االعتبار (واللغة العربية غنية رصف ًيا)‪ ،‬ويمكنها التنبؤ بكلامت مل ترد من قبل (واللغة‬
‫العربية كثرية االشتقاقات وااللتصاقات)‪.‬‬
‫لكن التطور يف هذا املجال مل يتوقف‪ .‬فقد تنبه الباحثون إىل أن اخلوارزمية ال تأخذ‬
‫السياق باالعتبار‪ .‬نعم‪ ،‬هي تويل الكلامت املصاحبة للكلمة املعنية اهتامما‪ ،‬لكن هذه‬
‫الكلامت استبعدت من السياق الكامل للفقرة أو حتى املقالة‪ .‬وعاجلت هذا القصور‬
‫خوارزميات تستخدم طبقات ذات خصائص تذكر ّية لسالسل البيانات وأشهرها طبقة‬
‫الذاكرة قصرية املدى املطولة ‪ .LSTM‬كام طورت أكثر عرب خاصية الرتكيز ‪attention‬‬

‫‪-117-‬‬
‫والتي تعطي اهتام ًما أكرب للكلامت ذات التأثري األكرب عند التنبؤ بالكلمة التالية‪ .‬فمثال‬
‫يف اجلملة التالية‪« :‬وحيب األطفال اللون األخرض واألمحر و__»‪ ،‬فإن الرتكيز من أجل‬
‫التنبؤ بالكلمة الناقصة سيكون منصبا أكثر عىل كلمتي «األخرض» و«واألمحر» كوهنام‬
‫مؤثران عىل االختيار‪ .‬وذاع صيت النامذج املستخرجة هبذه الطرق (مثل نامذج ‪BERT‬‬
‫(‪ )Devlin, Chang, Lee, & Toutanova, 2018‬و‪Radford et al.,( GPT-2‬‬
‫‪ ))2019‬التي أظهرت جودهتا يف توليد فقرات كاملة بشكل آيل متوافقة بشكل كبري مع‬
‫السياق لفقرة مكتوبة معطاة‪.‬‬

‫‪ 4.6‬تطبيقات مضامني الكلمة‬


‫أخريا‪ ،‬هذا التمثيل الرقمي للكلامت مفيد يف عدد كبري من التطبيقات الالحقة‬‫ً‬
‫(‪ .)downstream tasks‬فكام أسلفنا هو مستخدم اآلن يف كثري من لوحات املفاتيح‬
‫الذكية للتنبؤ بالكلمة التالية‪ .‬كام أنه مفيد حتى يف تصنيف اخلصائص اللغوية بالنمط‬
‫األول (مثل تصنيف قسم الكالم)‪.‬‬
‫وبعد تطور خوارزميات استخراج مضامني الكلمة (حتى أهنا سميت بنمذجة اللغة‬
‫‪ Language Modeling‬إذ إهنا مل تعد مقترصة عىل الكلمة فقط وإنام تعترب سياق اجلمل‬
‫والفقرات)‪ ،‬أصبحت شبه أساسية وأولية لكثري من مهام جمال معاجلة اللغات الطبيعية‪.‬‬
‫فمثال‪ ،‬يف النموذج ‪ ،BERT‬رفع استخدام مضامني الكلمة السياقية من جودة إحدى‬
‫عرشة مهمة من مهام معاجلة اللغات الطبيعية‪ .‬وصار عىل املستخدم الذي يريد حتليل‬
‫املشاعر يف نص معني أن ال يبدأ من الصفر‪ ،‬وإنام يبدأ من نموذج ملضامني الكلامت (قد‬
‫سبق تدريبه) ثم يبني نموذجه لتحليل املشاعر فوقه بكل سهولة‪.‬‬

‫‪ -5‬خامتة‬
‫تطورت خوارزميات الذكاء االصطناعي املستخدمة لتحليل ونمذجة الكلمة تطورا‬
‫كبريا يف السنوات األخرية‪ ،‬والتي تعد خطوة أساسية مهمة لكثري من تطبيقات معاجلة‬
‫اللغة الطبيعية‪ .‬فال شك أن معرفة املعاين واملباين للكلامت (اللبنات األساسية للكالم)‬
‫رضوري من أجل فهم الكالم أو إنتاجه آليا‪ .‬ولذا تعددت الطرق التي تفرس ومتثل‬
‫الكلامت وتبني جرسا ليسهل فهمه من قبل احلاسب اآليل الذي لغته ال تتجاوز األرقام‪.‬‬

‫‪-118-‬‬
‫صنفت هذه الورقة األبحاث يف هذا املجال إىل نمطني‪ :‬النمط اللغوي املبني عىل‬
‫الدراسات اللغوية للكلمة مثل التحليل الرصيف والنمط التوزيعي الذي يستنتج املعاين‬
‫للكلمة بناء عىل سياقاهتا وتوزيعها يف النص‪.‬‬
‫رشحت هذه الورقة كثريا من اخلوارزميات املستخدمة يف حتليل ونمذجة الكلمة يف‬
‫كال النمطني‪ ،‬مع تبيان جوانب القصور عند بعضها وخصوصا عند تطبيقها لنمذجة‬
‫الكلمة العربية‪ .‬كام قارنت بني النمطني وبينت أهنام مكمالن لبعضها‪ ،‬إذ يمكن‬
‫االستفادة من النمط التوزيعي كخطوة أوىل لتحليل كثري من املهام يف النمط اللغوي‪.‬‬
‫منصب بشكل كبري‬‫ّ‬ ‫بقي أن نختم بأن جزء ًا كبري ًا من التطور يف النمط التوزيعي‬
‫عىل اللغة اإلنجليزية‪ ،‬وكثري من النامذج املستخرجة هي لذات اللغة‪ ،‬واألبحاث يف‬
‫اللغة العربية متأخرة يف جتربة مثل هذه اخلوارزميات وقياس جودهتا عىل اللغة العربية‬
‫حتديدا‪ ،‬حيث إن للغة العربية مشاكلها اخلاصة‪ .‬فمثال‪ ،‬تشكيل الكلمة هي ميزة شبه‬
‫فريدة للغة العربية وعدم التشكيل ليس خطأ إمالئيا‪ ،‬وإنام وجوده اختياري ومتفاوت‬
‫وتقديري‪ .‬ويعمد كثري من الباحثني للغة العربية إىل إزالته منعا للزيادة يف تباعد الكلامت‬
‫‪ .sparseness‬ولكن هذه اإلزالة تزيد من غموض الكلمة (والتي بسببها يعمد الكاتب‬
‫كثريا إىل كتابة التشكيل أو الشدة)‪ .‬وعليه فيجب البحث عن إمكانية بناء خوارزمية ذكية‬
‫لبناء املضامني تستطيع متييز احلركات وتستفيد منها دون أن تؤثر عىل تباعد الكلامت‪.‬‬

‫‪-119-‬‬
‫املراجع‬
‫ مكتبة‬.‫ أقسام الكالم العريب من حيث الشكل والوظيفة‬.)1975( .‫ ف‬،‫الساقي‬
.‫اخلانجي بالقاهرة‬
Albared, M., Omar, N., & Ab Aziz, M. J. (2009). Arabic part of speech
disambiguation: A survey. International Review on Computers
and Software, 4(5), 517–532.
Algahtani, S., & McNaught, J. (2015). Joint Arabic Segmentation
and Part-Of-Speech Tagging. In Second Workshop on Arabic
Natural Language Processing (p. 108).
Alosaimy, A., & Atwell, E. (2018). Diacritization of a Highly Cited
Text: A Classical Arabic Book as a Case. In 2nd IEEE
International Workshop on Arabic and derived Script Analysis
and Recognition (ASAR 2018). London, UK.
Attia, M. (2006). An Ambiguity-Controlled Morphological Analyzer
for Modern Standard Arabic Modelling Finite State Networks.
In The Challenge of Arabic for NLP/MT Conference. London:
The British Computer Society.
Boudchiche, M., Mazroui, A., Bebah, M., Lakhouaja, A., & Boudlal,
A. (2016). AlKhalil Morpho Sys 2: A robust Arabic morpho-
syntactic analyzer. Journal of King Saud University-Computer
and Information Sciences.
Buckwalter, T. (2002). Buckwalter Arabic Morphological Analyzer
Version 1.0.
Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2018). BERT:
Pre-training of Deep Bidirectional Transformers for Language
Understanding. CoRR, abs/1810.0(Mlm).

-120-
Dukes, K., Atwell, E., & Habash, N. (2013). Supervised collaboration
for syntactic annotation of Quranic Arabic. Language
Resources and Evaluation. https://doi.org/10.1007/s10579-011-
9167-7
Elhadj, Y., Al-Sughaiyer, I. A., Khorsi, A., & Alansari, A. (2010).
The Morphological Analysis of the Holy Qur’an: A Database
of the Entire Quranic Text (Arabic). International Journal of
Computer Science and Engineering in Arabic, 3(1).
Firth, J. R. (1957). A synopsis of linguistic theory 1930-55. Studies
in Linguistic Analysis (Special Volume of the Philological
Society), 1952–59, 1–32.
Habash, N. (2010). Introduction to Arabic Natural
Language Processing. Synthesis Lectures on Human
Language Technologies. https://doi.org/10.2200/
S00277ED1V01Y201008HLT010
Habash, N., & Roth, R. M. (2009). CATiB: the Columbia Arabic
Treebank. In Proceedings of the ACL-IJCNLP 2009
Conference Short Papers (pp. 221–224). Suntec, Singapore.
Habash, N., & Sadat, F. (2006). Arabic Preprocessing Schemes for
Statistical Machine Translation. In Proceedings of the Human
Language Technology Conference of the NAACL. New York
City, US.
Hajic, J., Smrz, O., Zemánek, P., Šnaidauf, J., & others. (2004).
Prague Arabic dependency treebank: Development in data and
tools. Proceedings of the NEMLAR International Conference
on Arabic Language Resources and Tools, 110–117.
Heintz, I. (2014). Language Modeling. In I. Zitouni (Ed.), Natural
Language Processing of Semitic Languages (pp. 161–196).
Springer. https://doi.org/10.1007/978-3-642-45358-8

-121-
Khoja, S. (2001). APT: Arabic part-of-speech tagger. In Proceedings
of the Student Workshop at NAACL (pp. 20–25). Pittsburgh,
PA, USA.
Kudo, T., & Matsumoto, Y. (2001). Chunking with support vector
machines. In Proceedings of the Second Meeting of the North
American Chapter of the Association for Computational
Linguistics. Pittsburgh, Pennsylvania. https://doi.
org/10.3115/1073336.1073361
Maamouri, M., & Bies, A. (2004). Developing an Arabic treebank:
methods, guidelines, procedures, and tools. Proceedings of
the Workshop on Computational Approaches to Arabic Script-
Based Languages, 2–9.
Maamouri, M., Bies, A., Buckwalter, T., Jin, H., & Mekki, W. (2005).
Arabic Treebank: Part 3 (full corpus) v 2.0 (MPG + Syntactic
Analysis) LDC2005T20.
Mikolov, T., Sutskever, I., Chen, K., Corrado, G., & Dean, J. (2013).
Distributed Representations of Words and Phrases and their
Compositionality. In Advances in Neural Information Processing
Systems 26 (NIPS 2013) (pp. 1–9). Lake Tahoe, USA.
Mitchell, T. M. (1997). Does Machine Learning Really Work? AI
Magazine, 18(3), 71–83.
Mohamed, E. (2012). Morphological Segmentation and Part of
Speech Tagging for Religious Arabic. In Fourth Workshop on
Computational Approaches to Arabic Script-based Languages
(CAASL4) (pp. 65–71). San Diego, USA.
Ng, A. Y., & Jordan, M. I. (2002). On Discriminative Vs. Generative
Classifiers: a Comparison of Logistic Regression and Naive
Bayes. In Advances in neural information processing systems
(pp. 841–848).

-122-
Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever,
I. (2019). Language Models are Unsupervised Multitask
Learners.
Sawalha, M. (2011). Open-source resources and standards for Arabic
word structure analysis: Fine grained morphological analysis
of Arabic text corpora, PhD thesis. University of Leeds.
Schneider, N., Mohit, B., Oflazer, K., & Smith, N. (2012). Coarse
lexical semantic annotation with supersenses: an Arabic case
study. In Proceedings of the 50th Annual Meeting of the
Association for Computational Linguistics (Volume 2: Short
Papers) (pp. 253–258). Jeju Island, Korea.
Smrz, O. (2007). Functional Arabic Morphology. Formal System
and Implementation, PhD thesis. The Prague Bulletin of
Mathematical Linguistics. Charles University in Prague.
Tsarfaty, R., Seddah, D., Goldberg, Y., Kuebler, S., Versley, Y.,
Candito, M., … Tounsi, L. (2010). Statistical Parsing of
Morphologically Rich Languages (SPMRL): What, How
and Whither. In Proceedings of the NAACL HLT 2010 First
Workshop on Statistical Parsing of Morphologically-Rich
Languages (pp. 1–12). Los Angeles, CA, USA: Association for
Computational Linguistics.
Yaseen, M., Attia, M., Maegaard, B., Choukri, K., Paulsson, N.,
Haamid, S., … Ragheb, A. (2006). Building Annotated Written
and Spoken Arabic LR’s in NEMLAR Project. In LREC:
Proceedings of the International Conference on Language
Resources and Evaluation (pp. 533–538). Genoa, Italy.
Yu, D. J. (2016). Part-Of-Speech Tag Embedding for Modeling
Sentences and Documents, Master Thesis. University of
California, Los Angeles.

-123-
Zeroual, I., & Lakhouaja, A. (2016). A New Quranic Corpus Rich
in Morphosyntactical Information. International Journal of
Speech Technology, 1–8.
Zhang, Y., Li, C., Barzilay, R., & Darwish, K. (2015). Randomized
Greedy Inference for Joint Segmentation, POS Tagging and
Dependency Parsing. In Proceedings of the 2015 Conference
of the North American Chapter of the Association for
Computational Linguistics: Human Language Technologies
(pp. 42–52). Stroudsburg, PA, USA: Association for
Computational Linguistics. https://doi.org/10.3115/v1/N15-
1005

-124-
‫الفصل اخلامس‬
‫تقنيات الذكاء االصطناعي واملعاجلة احلاسوبية‬
‫للمتالزمات اللفظية والتراكيب االصطالحية‬

‫د‪ .‬أيـمن بن أحـمد الغامدي‬

‫‪-125-‬‬
-126-
‫ملخص الفصل‬
‫ُيشكل الغموض اللغوي بكافة مستوياته ودرجاته حتديا مستمر ًا لكثري من مهام‬
‫املعاجلة اآللية للغات الطبيعية؛ ومن هنا بدأ االهتامم مبكر ًا بدراسة عدد من الظواهر‬
‫اللغوية التي تسهم فيه بشكل واضح‪ ،‬ومن أمهها‪ :‬ظاهرة الرتاكيب االصطالحية‬
‫واملتالزمات اللفظية‪ ،‬والتي لفتت منذ وقت مبكر انتباه عدد كبري من الباحثني واملهتمني‬
‫يف ختصصات بينية لغوية وحاسوبية متعددة‪ .‬ويف هذا الفصل نقدم استعراض ًا موجز ًا‬
‫جلهود الباحثني يف هذا امليدان‪ ،‬من خالل تتبعنا ألهم الدراسات التي اهتمت باملعاجلة‬
‫احلاسوبية هلذه الظاهرة اللغوية‪ ،‬وسيبدأ الفصل بمقدمة تبني أمهية دراسة هذه الظاهرة‬
‫وأهم جماالت البحث فيها‪ ،‬ثم يقدم القسم الثاين من هذا الفصل إطار ًا نظري ًا لدراسة‬
‫هذه الظاهرة ويشتمل عىل التعريف العميل‪ ،‬وذكر أهم اخلصائص اللغوية املميزة هلا يف‬
‫اللغة العربية‪ ،‬باإلضافة إىل استعراض أهم التصنيفات املستعملة للرتاكيب االصطالحية‬
‫يف مستويات لغوية متعددة‪ .‬ويف القسم الثالث نقدم استعراض ًا ألهم تطبيقات املعاجلة‬
‫احلاسوبية هلذه الظاهرة والتي تلخص املشاكل البحثية الرئيسة التي تتضمن الرتاكيب‬
‫االصطالحية يف أدبيات معاجلة اللغات‪ ،‬ويسلط هذا القسم الضوء بشكل خاص عىل‬
‫مهمتي االستخراج والتعرف اآليل‪ ،‬وما يتعلق باملصادر اللغوية احلاسوبية للرتاكيب‬
‫االصطالحية وتطبيقات معاجلة اللغات‪ ،‬وأخري ًا نختم هذا الفصل بعرض موجز ألبرز‬
‫التحديات التي ال تزال تشكل عقبة يف سبيل الوصول إىل درجات عالية من الدقة يف‬
‫مهام املعاجلة احلاسوبية املختلفة هلذه الظاهرة اللغوية املعقدة‪.‬‬

‫د‪ .‬أيـمن بن أحـمد الغامدي‬


‫أستاذ اللسانيات احلاسوبية املساعد يف معهد اللغة العربية يف جامعة أم القرى‪ ،‬حاصل عىل‬
‫درجة البكالوريوس يف اللغة العربية وآداهبا‪ ،‬والدبلوم العايل يف الرتبية والتعليم وطرق التدريس‬
‫يف جامعة الطائف‪ ،‬ودرجة املاجستري يف اللسانيات التطبيقية يف جامعة ‪ ،Essex‬ودرجة الدكتوراه‬
‫يف اللسانيات احلاسوبية والذكاء االصطناعي يف قسم احلاسب اآليل يف جامعة ‪ Leeds‬يف اململكة‬
‫املتحدة‪ ،‬له عدد من األبحاث املنشورة يف اللسانيات التطبيقية واحلاسوبية‪ ،‬و ُمنح عدد ًا من شهادات‬
‫الشكر والتميز من جهات أكاديمية وخريية واجتامعية‪ ،‬وله عدد من املشاركات يف املؤمترات العلمية‬
‫وحرض العديد من الدورات والورش التدريبية املحلية والدولية يف جماالت‬ ‫املحلية والدولية‪َ ،‬قدَّ م َ‬
‫أكاديمية متنوعة‪)https://uqu.edu.sa/aamansoori( – )aamansoori@uqu.edu.sa( .‬‬

‫‪-127-‬‬
‫‪ -1‬املقدمة‬
‫تُعد ظاهرة الرتاكيب االصطالحية من الظواهر اللغوية املعقدة التي شغلت كثري ًا من‬
‫الباحثني يف عدد من املجاالت العلمية املتصلة باللغة‪ ،‬كعلوم اللسانيات املتنوعة مثل‪:‬‬
‫اللسانيات التطبيقية والنفسية‪ ،‬وكذلك يف عدد من ختصصات الذكاء االصطناعي‪،‬‬
‫كاللسانيات احلاسوبية‪ ،‬وعلوم املعاجلة اآللية للغات‪ .‬وحتاول أغلب هذه األبحاث‬
‫العمل عىل تقديم مقرتحات علمية وعملية تساعد يف تقليل نسبة الغموض اللغوي‬
‫الذي تسببه هذه الظاهرة يف عدد من تطبيقات املعاجلة اآللية للغات‪ :‬كالرتمجة اآللية‪،‬‬
‫وتطبيقات التحليل اللغوي املختلفة‪ :‬مثل التحليل الرصيف والنحوي والداليل وغريها‪.‬‬
‫ويعود االهتامم هبذه الظاهرة اللغوية لعدد من األسباب التي من أمهها النسبة الكبرية‬
‫التي تشكلها هذه الرتاكيب يف اللغة‪ ،‬وخاصة يف اللغة الشائعة التي تستعمل يف احلياة‬
‫اليومية‪ ،‬ففي اللغة اإلنجليزية عىل سبيل املثال ترتاوح النسب املقدرة هلذه الرتاكيب‬
‫من ‪ )Biber et al., 1999( %30‬إىل أكثر من ‪)Erman and Warren, 2000) %50‬‬
‫ويف املعجم احلاسويب اإلنجليزي ‪ WordNet‬شكلت نسبة هذه الرتاكيب بكل أنواعها‬
‫حوايل ‪ %41‬من إمجايل عدد املداخل املعجمية )‪.(Miller et al., 1990‬‬
‫أما يف اللغة العربية فبالرغم من عدم وجود دراسات إحصائية أو نسب حمددة هلذه‬
‫الرتاكيب كام يف اإلنجليزية‪ ،‬إال أن كثرهتا تعد كذلك ظاهرة يف العربية‪ ،‬وخاصة عند‬
‫استقراء نتائج البحث يف املدونات العربية الضخمة(((‪ .‬كام يؤكد أمهية هذه الظاهرة يف‬
‫العربية‪ ،‬العناية املبكرة هبا من قبل الباحثني واللغويني العرب‪ ،‬فقدي ًام ظهر هذا االهتامم‬
‫يف مؤلفات كثرية اهتمت بجمع أمثال العرب وحكمهم‪ ،‬وكذلك قصد بعض املؤلفني‬
‫تفسري ماورد يف نصوص الوحيني الكتاب والسنة من األمثال واحلكم‪ ،‬وهذه العناية‬
‫املبكرة بال شك تدل عىل الوعي املبكر عند علامء اللغة باألمهية البالغة هلذا النوع من‬
‫الرتاكيب يف فهم اللغة وتفسري معانيها‪ ،‬وكذلك دورها يف رفع املستوى اللغوي للكتاب‬
‫وطالب العلم‪ ،‬ويوضح جدول ‪ 1‬عدد ًا من املصادر العربية القديمة التي اعتنت هبذا‬
‫النوع من الرتاكيب‪.‬‬

‫‪ -1‬أكدت كثري من الدراسات اللغوية املبنية عىل مدونات لغوية شيوع هذا النوع من الرتاكيب يف اللغة العربية‪،‬‬
‫ويمكن للمهتم مراجعة الدراسات التالية ملزيد من املعلومات حول هذا املوضوع‪( :‬اخلويل‪1998 ،‬؛ فايد‪2014 ،‬؛‬
‫‪.)Alghamdi, 2018 Zaghouani, 2014; Abdou, 2011‬‬

‫‪-128-‬‬
‫تاريخ وفاته‬ ‫املؤلف‬ ‫الكتاب‬
‫‪60‬هـ‬ ‫صحار بن عياش‬ ‫األمثال‬
‫‪170‬هـ‬ ‫املفضل الضبي‬ ‫األمثال‬
‫‪195‬هـ‬ ‫السدويس‬ ‫األمثال‬
‫‪223‬هـ‬ ‫القاسم بن سالم‬ ‫األمثال‬
‫‪291‬هـ‬ ‫ابن سلمة‬ ‫الفاخر‬
‫‪250‬هـ‬ ‫أبو عكرمة الضبي‬ ‫األمثال‬
‫‪350‬هـ‬ ‫أبو منصور الثعالبي‬ ‫ثامر القلوب يف املضاف واملنسوب‬
‫‪356‬هـ‬ ‫أبو عيل القايل‬ ‫كتاب أفعل من كذا‬
‫‪487‬هـ‬ ‫البكري‬ ‫رشح كتاب األمثال‬
‫‪518‬هـ‬ ‫امليداين‬ ‫جممع األمثال‬
‫‪538‬هـ‬ ‫الزخمرشي‬ ‫أساس البالغة‬
‫‪1111‬هـ‬ ‫املحبي‬ ‫ما يعول عليه يف املضاف واملضاف إليه‬

‫جدول ‪ :1‬أمثلة لكتب مجعت عددا من أنواع الرتاكيب االصطالحية يف املصادر العربية القديمة‪.‬‬

‫ويف الدراسات اللغوية احلديثة ظهر االهتامم هبذه الظاهرة وما يتصل هبا جليا يف‬
‫عدد كبري من األبحاث التي تناولت هذه الظاهرة من خمتلف زواياها‪ ،‬فعىل سبيل املثال‪،‬‬
‫اهتم بعض الباحثني بجمع هذه الرتاكيب يف معاجم خاصة كام يف هذه األمثلة‪( :‬أبو‬
‫سعد‪1987 ،‬؛ إسامعيل وآخرون‪1996 ،‬؛ بشارة‪2002،‬؛ أبو داوود‪2003،‬؛ حافظ‪،‬‬
‫‪2004‬؛ كامل‪ ،2007 ،‬وغريها)‪ ،‬بينام اجتهت دراسات أخرى إىل تقديم أطر نظرية‬
‫لدراسة هذا النوع من الرتاكيب كام يف األعامل التالية‪(:‬القاسمي‪1979 ،‬؛ حجازي‪،‬‬
‫‪1980‬؛ غزالة‪1993 ،‬؛ هليل‪1996 ،‬؛ ابن عمر‪ ،)2007 ،‬وقدمت هذه األبحاث‬
‫العديد من املقرتحات النظرية فيام يتعلق بتعريف هذه الرتاكيب اللغوية‪ ،‬ورشح‬
‫أنواعها‪ ،‬ومجع ما يستعمل من مصطلحات خمتلفة يف وصفها‪ ،‬باإلضافة إىل دراسة أهم‬
‫خصائصها وتصنيفاهتا يف خمتلف مستويات التحليل اللغوي‪.‬‬
‫وقد أكدت بعض الدراسات اللغوية احلديثة املبنية عىل مدونات ضخمة متثل اللغة‬
‫العربية املعارصة أن الرتاكيب االصطالحية وما يتصل هبا من ظواهر لغوية مشاهبة‬

‫‪-129-‬‬
‫جيب أن تشكل جزء ًا أساسي ًا يف كل الربامج اللغوية التي هتدف إىل حتليل النصوص‬
‫العربية حاسوبيا؛ وذلك ألثرها املهم يف حتديد مستويات الغموض اللغوي يف خمرجات‬
‫تطبيقات معاجلة اللغة املختلفة(‪.)Abdou, 2011; Najar et al., 2015‬‬
‫وإذا ما أمعنا النظر نجد كذلك أن كثريا من الكلامت املفردة يف اللغة العربية يتوقف‬
‫فهم معانيها املختلفة عىل فهم معنى عدد من الرتاكيب املتصلة هبا‪ ،‬وقد تكون بعض‬
‫معاين هذه الرتاكيب أكثر شيوعا من معنى الكلمة وهي مفردة‪ ،‬كام يظهر ذلك عىل سبيل‬
‫املثال يف كلمة «عني»‪ ،‬والتي ال يمكن استيعاب معانيها املتعددة يف السياقات اللغوية‬
‫املختلفة إال بفهم معاين عدد من املتالزمات اللفظية املتصلة هبا‪ ،‬ويمكن توضيح هذه‬
‫الفكرة من خالل تشبيه الكلمة املفردة «عني» برأس جبل اجلليد‪ ،‬والذي قد يظهر يف‬
‫أول وهلة صغري ًا ولكنه يف الواقع وعند التأمل جمرد قمة جلبل عظيم كام هو موضح يف‬
‫الشكل ‪. 1‬‬

‫املرتبطة هبا‪.‬‬
‫اﻟﻤﺮﺗﺒﻄﺔ ﺑﮭﺎ‪.‬‬ ‫ﻟﻠﺘﺮاﻛﯿﺐ‬‫للرتاكيب‬ ‫وأمثلة‬
‫وأﻣﺜﻠﺔ‬ ‫كلمة «عني»‬
‫"ﻋﯿﻦ"‬ ‫فيها ﻛﻠﻤﺔ‬
‫تظهرﻓﯿﮭﺎ‬ ‫اجلليد‬
‫ﺗﻈﮭﺮ‬ ‫لقمة جبل‬
‫اﻟﺠﻠﯿﺪ‬ ‫رمزيةﺟﺒﻞ‬
‫صورةﻟﻘﻤﺔ‬ ‫شكل ‪:1‬‬
‫رﻣﺰﯾﺔ‬ ‫ﺷﻜﻞ ‪ :1‬ﺻﻮرة‬

‫ﻣﻤﺎ ﯾﺆﻛﺪ أھﻤﯿﺔ دراﺳﺔ ھﺬه اﻟﻈﺎھﺮة اﻟﻠﻐﻮﯾﺔ وﻣﺎ ﯾﺘﺼﻞ ﺑﮭﺎ‪ ،‬ﻣﺎ ﺗﻮﺻﻠﺖ إﻟﯿﮫ ﻋﺪد ﻣﻦ‬
‫ﻷﺑﺤﺎث ﻓﻲ ﻋﻠﻢ اﻟﻠﻐﺔ اﻟﻌﺼﺒﻲ واﻟﻨﻔﺴﻲ ﻣﻦ ﻧﺘﺎﺋﺞ ﺗﻔﯿﺪ أن اﻟﻤﻌﺠﻢ اﻟﻠﻐﻮي ﻓﻲ اﻟﻌﻘﻞ‬
‫ﺒﺸﺮي ﻻ ﯾﺘﻜﻮن ﻣﻦ ﻣﻔﺮدات وﻛﻠﻤﺎت ‪-130-‬‬
‫ﻣﻌﺰوﻟﺔ ﻓﺤﺴﺐ ﺑﻞ ﯾﺘﻤﺜﻞ ﻓﻲ ﺷﺒﻜﺔ ﻣﻌﻘﺪة ﻣﻦ‬
‫ﺘﺮاﻛﯿﺐ واﻟﻌﻼﻗﺎت اﻟﻤﺘﻨﻮﻋﺔ اﻟﺘﻲ ﺗﻤﺜﻞ اﻟﻤﻌﺠﻢ اﻟﻠﻐﻮي ﻟﻠﻌﻘﻞ اﻟﺒﺸﺮي ‪Wray,‬‬
‫ومما يؤكد أمهية دراسة هذه الظاهرة اللغوية وما يتصل هبا‪ ،‬ما توصلت إليه عدد من‬
‫األبحاث يف علم اللغة العصبي والنفيس من نتائج تفيد أن املعجم اللغوي يف العقل‬
‫البرشي ال يتكون من مفردات وكلامت معزولة فحسب بل يتمثل يف شبكة معقدة من‬
‫الرتاكيب والعالقات املتنوعة التي متثل املعجم اللغوي للعقل البرشي )‪Wray, 2002‬‬
‫‪ .(Sinclair, 1991‬باإلضافة إىل ذلك‪ ،‬تؤكد كثري من األبحاث يف علم اللغة التطبيقي‬
‫أن طالقة متعلم اللغة تعتمد بشكل أسايس عىل مدى إتقانه ومعرفته هبذه الرتاكيب‬
‫وفهم الصالت والعالقات اللغوية التي حتكمها‪(Fillmore, 1979; Pawley and‬‬
‫‪Syder,1983; Ohlrogge, 2009).‬‬

‫ويف علوم اللسانيات احلاسوبية ومعاجلة اللغات ظهر كذلك اهتامم مبكر هبذه‬
‫الظاهرة وذلك لدورها املحوري يف حتسني الدقة اللغوية لنتائج كثري من تطبيقات‬
‫املعاجلة اآللية للغات‪ ،‬فوجدت يف هذا املجال العديد من املشاريع البحثية التي هتدف‬
‫إىل تضمني هذه الرتاكيب يف مراحل املعاجلة اآللية التقليدية للغات(((‪ ،‬وذلك ببناء‬
‫معاجم حاسوبية داللية خمتصة هبذه الرتاكيب كام نجد يف األعامل التالية‪Bar et al., (:‬‬
‫‪ )2014; Constant et al., 2013; Alghamdi, 2018‬أو حتسني عمل اخلوارزميات‬
‫اخلاصة بالتعرف واالستخراج اآليل هلذه الرتاكيب من النصوص كام يف هذه األمثلة‪:‬‬
‫( ‪،)Ramisch 2015; Carpuat and Diab, 2010; Rikters and Bojar, 2017‬‬
‫وتعود بداية األبحاث التي وظفت األدوات احلاسوبية يف دراسة هذه الظاهرة اللغوية‬
‫إىل الستينات امليالدية مع بدايات اخرتاع احلاسوب وانتشار استعامله‪ ،‬وقد ركزت‬
‫األبحاث املبكرة يف هذا املجال عىل تطبيق عدد من الطرق التي تفيد من احلاسوب‬
‫وقدراته الفائقة يف االستخراج اآليل لعدد من أنواع الرتاكيب االصطالحية بناء عىل‬
‫قوالب لغوية حمددة مسبق ًا كام نجد يف الدراسات التالية‪Stevens and Giuliano, (:‬‬
‫‪.)1965; Berry-Rogghe, 1973; Atwell, 1988‬‬

‫‪ -1‬تتكون املعاجلة اآللية للغات من جمموعة من املراحل املتعارف عليها يف اللسانيات احلاسوبية والتي غاليا ما تبدأ بعدد‬
‫من مهام حتضري النصوص املراد معاجلتها ثم توظيف عدد من اخلوارزميات يف التحليل اللغوي والتي تشمل التقسيم‬
‫اآليل للكلامت واجلمل ثم إرجاع املشتقات الرصفية إىل أصوهلا ثم تأيت مرحلة الرتميز اآليل للوحدات الرصفية بعدد‬
‫من املعلومات اللغوية املتعلقة بأقسام الكالم والعالقات النحوية واملعلومات الداللية‪ ،‬ملزيد من التفاصيل عن مراحل‬
‫التحليل اللغوي اآليل يمكن مراجعة (محادة‪.)2009 ،‬‬

‫‪-131-‬‬
‫‪ -2‬اإلطار النظري‬
‫يف هذا اجلزء سنتناول باختصار أهم املقدمات النظرية التي تشكل مدخ ً‬
‫ال لفهم‬
‫هذه الظاهرة اللغوية‪ ،‬وسنقترص هنا حتديد ًا عىل ذكر ما هو مهم لفهم عدد من املشاكل‬
‫احلاسوبية التي تنشأ عن معاجلة هذه الظاهرة يف املستويات اللغوية املختلفة‪.‬‬

‫‪ 2.1‬تعريف الرتاكيب االصطالحية واملتالزمات اللفظية‬


‫من أهم ما يشغل الباحثني يف هذه الظاهرة كثرة وتعدد املفاهيم واملصطلحات‬
‫املستعملة يف وصفها‪ ،‬كام يوضح الشكل ‪ 2‬أمثلة لعدد من املصطلحات املستعملة لوصف‬
‫هذه الرتاكيب والظواهر املتصلة هبا يف اللغة العربية‪ ،‬ويمكن تربير هذا التنوع واالختالف‬
‫يف املصطلح واملفهوم بكثرة األبحاث وحداثتها يف هذه الظاهرة املعقدة‪ ،‬وكذلك شيوع‬
‫الرتاكيب االصطالحية وتعدد أنواعها‪ ،‬ولذا فكل باحث حياول أن يقدم تصور ًا هلذه‬
‫الظاهرة اللغوية ‪-‬متعددة األوجه‪ -‬من الزاوية التي هيتم هبا أو املشكلة التي يعاجلها‪.‬‬

‫شكل ‪ :2‬نامذج من املصطلحات املستعملة لوصف ظاهرة الرتاكيب االصطالحية يف اللغة العربية(((‪.‬‬
‫‪ :‬ﻧﻤﺎذج ﻣﻦ اﻟﻤﺼﻄﻠﺤﺎت اﻟﻤﺴﺘﻌﻤﻠﺔ ﻟﻮﺻﻒ ظﺎھﺮة اﻟﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ ﻓﻲ اﻟﻠﻐﺔ اﻟﻌﺮﺑﯿﺔ‪1.1‬ﺷﻜﻞ‬

‫ﻓﻲواحدﻣﺠﻤﻮﻋﺔ ﻣﻦ‬
‫ﺗﺘﻔﻖ مفهوم‬ ‫واملتالزماتواﻟﺘﻲ‬
‫اللفظية) ويراد هبام‬ ‫اﻟﻤﻘﺘﺮﺣﺔ‬ ‫اﻟﺘﻌﺮﯾﻔﺎتاالصطالحية‬
‫ﻣﻦمصطلحي (الرتاكيب‬‫ﻋﺪدالباحث‬‫ﺑﺴﺮد يستعمل‬
‫ﺳﻨﻜﺘﻔﻲيف هذا الفصل‬
‫‪-1‬‬ ‫وھﻨﺎ‬
‫وهو الذي نرشحه يف هذا اجلزء من البحث‪.‬‬
‫ﻟﺼﻔﺎت واﻟﺨﺼﺎﺋﺺ اﻟﻤﺸﺘﺮﻛﺔ ﻟﻠﺘﺮاﻛﯿﺐ اﻟﻠﻐﻮﯾﺔ اﻟﻤﺴﺘﮭﺪﻓﺔ ﻓﻲ ﺳﯿﺎق ھﺬه اﻟﺪراﺳﺔ‬
‫‪-132-‬‬
‫وھﻲ ﻛﻤﺎ ﯾﻠﻲ‪:‬‬
‫• "ﻛﻠﻤﺘﯿﻦ أو ﻣﺠﻤﻮﻋﺔ ﻣﻦ اﻟﻜﻠﻤﺎت ﺗﺮد ﻣﻊ ﺑﻌﻀﮭﺎ ﺑﻌﻀﺎ ً ﺑﺸﻜﻞ داﺋﻢ وﺛﺎﺑﺖ ﻓﻲ‬
‫وهنا سنكتفي برسد عدد من التعريفات املقرتحة والتي تتفق يف جمموعة من الصفات‬
‫واخلصائص املشرتكة للرتاكيب اللغوية املستهدفة يف سياق هذه الدراسة وهي كام ييل‪:‬‬
‫Ÿ Ÿ«كلمتني أو جمموعة من الكلامت ترد مع بعضها بعض ًا بشكل دائم وثابت يف‬
‫خمتلف السياقات»(غزالة‪ 1993 ،‬ص‪.)7.‬‬
‫Ÿ Ÿ«كل عبارة من العبارات املتواترة يف اللغة‪ ،‬وقد تك َّلست مكوناهتا وتواردت يف‬
‫شكل من أشكال املركبات النحوية املختلفة؛ للداللة عىل معنى تعادل قيمته‬
‫اإلخبارية قيمة العالمة اللغوية الواحدة» (ابن عمر‪ 2007 ،‬ص‪.)42.‬‬
‫Ÿ Ÿ«جتمع لفظي (أكثر من وحدة معجمية بسيطة)‪ ،‬يقع يف االستعامل اللغوي‬
‫باطراد‪ ،‬وله داللة ثابتة ال تنتج من جتميع دالالت مفرداته املكونة له»‪( .‬فايد‪،‬‬
‫‪ 2014‬ص‪.)113.‬‬
‫ومن التعريفات التي يكثر استعامهلا خاصة يف أدبيات املعاجلة اآللية للغات‬
‫واللسانيات احلاسوبية تعريف ‪ (2010: p.269) Baldwin and Kim‬والذي اعتمد‬
‫بشكل كبري عىل تعريف سابق اقرتحه ‪ (2002) Sag et al.‬هلذا النوع من الرتاكيب‬
‫والذي يمكن ترمجته كام ييل‪:‬‬
‫«الرتاكيب االصطالحية هي وحدات معجمية ثابتة يمكن تقسيمها إىل وحدات‬
‫معجمية أبسط منها‪ ،‬وتتميز بظهور املعنى االصطالحي أو املجازي فيها والذي يسبب‬
‫نوع ًا من الغموض يف أحد مستويات التحليل اللغوي‪( :‬املعجمي ‪ -‬الرتكيبي ‪ -‬الداليل‬
‫‪-‬الوظيفي‪ -‬اإلحصائي)»‪.‬‬
‫ومن خالل هذه التعريفات وغريها يمكننا حتديد جمموعة من اخلصائص اللغوية‬
‫التي يمكن استعامهلا لتمييز هذا النوع من الرتاكيب وهو ما سنتناوله يف اجلزء التايل من‬
‫هذا الفصل‪.‬‬

‫‪-133-‬‬
‫‪ 2.2‬اخلصائص اللغوية للرتاكيب االصطالحية‬
‫تتميز الرتاكيب االصطالحية التي تشكل هذه الظاهرة اللغوية املعقدة بعدد من‬
‫الصفات التي جتعلها سببا ملشاكل متعددة يف التحليل اللغوي اآليل ومن أهم هذه‬
‫الصفات ما ييل‪:‬‬
‫Ÿ Ÿتعدد مكونات الرتكيب‪ :‬فمقتىض كلمة تركيب تعني بالرضورة أهنا البد أن‬
‫تتكون من وحدتني معجميتني عىل األقل‪ ،‬وهذا ما يميزها عن املفردات املنعزلة‬
‫والكلامت املستقلة‪ ،‬ويرى كثري من اللغويني املحدثني أن التفريق بني مفهومي‬
‫الكلمة والرتكيب يف التطبيقات احلاسوبية مثار كثري من االختالف واجلدل؛‬
‫ألن الكلمة يمكن أن يقصد هبا تركيب لغوي كامل وخاصة إذا كان املعيار‬
‫الوحيد للتفريق هو وجود املسافة أو الفراغ الذي يكون بني املفردات‪ ،‬وهو‬
‫معيار وإن كان سهل التطبيق يف مهام املعاجلة اآللية للغة إال أنه غري دقيق خاصة‬
‫يف اللغة العربية التي تتميز بالتداخل الشديد بني الوحدات املعجمية يف املفردة‬
‫الواحدة‪ ،‬كام يف تركيب (أرأيتها؟) الذي اجتمعت فيه أربع وحدات معجمية‬
‫متصلة وليس بينها مسافة يف الكتابة‪ ،‬ففي اللغة العربية من الشائع أن نرى مج ً‬
‫ال‬
‫كاملة يف صورة مفردة واحدة كام يف املثال السابق‪.‬‬
‫Ÿ Ÿالتواتر وشيوع التالزم بني مكوناهتا‪ :‬من أهم ما تتصف به الرتاكيب االصطالحية‬
‫أن الوحدات املعجمية املكونة هلا غالبا ما تكون متصاحبة يف االستعامل ولو‬
‫اختلف السياق اللغوي الذي تأيت فيه‪ ،‬وكذلك ال يمكن يف أغلب األحوال‬
‫استبدال مكوناهتا بألفاظ أخرى مرادفة هلا‪.‬‬
‫Ÿ Ÿاملعنى االصطالحي‪ :‬وهذه أهم صفة يمكن هبا متييز هذه الرتاكيب يف مستوى‬
‫التحليل الداليل‪ ،‬فام يميز هذه الرتاكيب أهنا تدل عىل معنى اصطالحي خمتلف‬
‫عن املعنى احلريف الذي تدل عليه مكوناهتا من الكلامت املفردة‪ .‬و ُيعرب أحيانا‬
‫عن هذه الصفة باملعنى الكيل أو اإلمجايل للرتكيب والذي ال يناسب وال‬
‫يتوافق مع داللة أجزائه‪ ،‬وهذه الصفة توجد يف الرتاكيب بدرجات متفاوتة‪،‬‬
‫فكلام ابتعد املعنى الكيل عن املعاين احلرفية للمفردات‪ ،‬كلام َقل مستوى شفافية‬
‫الرتكيب‪ ،‬وينتج عن ذلك مستوى عال من الغموض اللغوي‪ ،‬وخاصة عند‬

‫‪-134-‬‬
‫استعامل التحليل اآليل التقليدي املعتمد عىل معاجلة املفردات بشكل مستقل‬
‫عن املستوى الرتكيبي هلا‪.‬‬
‫ومثل هذه الرتاكيب تصعب ترمجتها اعتامدا عىل ترمجة الكلامت املكونة هلا؛ ألهنا‬
‫بمعناها الكيل صارت وحدة معجمية ذات داللة مستقلة‪ ،‬وقد تنبه اللغويون العرب‬
‫منذ وقت مبكر جد ًا ألمهية هذه اخلاصية يف الرتاكيب اللغوية‪ ،‬وأثرها البالغ يف حتديد‬
‫املعنى اإلمجايل للرتكيب فعىل سبيل املثال‪ ،‬ذكر سيبويه يف الكتاب عددا من الرتاكيب‬
‫اللغوية ثم أكد عىل رضورة تالزمها وأثر ذلك عىل فهم املعنى‪ ،‬فيقول‪:‬‬
‫أن هذه األشيا َء ال ينفرد منها يشء دون ما بعده‪ ،‬وذلك أنَّه ال جيوز أن تقول‪:‬‬ ‫«واعلم َّ‬
‫ك ّلمتُه فاه حتّى تقول إىل َّيف‪ ،‬ألنَّك إنَّام تريد مشا َفه ًة‪ ،‬وا ُملشافه ُة ال تكون إالّ من اثنني‪،‬‬
‫صح املعنى إذا قلت إىل ِ َّف‪ ،‬وال جيوز أن تقول بايعتُه يد ًا‪ ،‬ألنَّك إنَّام تريد أن تقول‪:‬‬ ‫فإنَّام َي ّ‬
‫ِ‬ ‫ٍ‬
‫صح املعنى إذا قلت‪ :‬بيد ألهنام َع َمالن»ص‪.392‬‬ ‫أخ َذ منّي وأعطاين‪ ،‬فإِنَّام َي َ‬‫َ‬
‫وقد تناولت بعض األبحاث اللغوية احلديثة كذلك هذه امليزة وأثرها يف التحليل‬
‫الداليل للرتاكيب فقد عرب اللغوي املعروف حسان (‪ )1973‬ص‪ 331.‬عن هذا املعنى‬
‫يف الرتاكيب اللغوية بالتضام والضامئم‪ ،‬فيقول‪:‬‬
‫أمخاسا‬
‫ً‬ ‫«ومن قبيل التضام ما يساق من أمثلة التعبريات املسكوكة مثل‪ :‬يرضب‬
‫يف أسداس‪ ،‬ويلقي احلبل عىل الغارب‪ ،‬ويضع األمور يف نصاهبا‪ ،‬وغري ذلك من‬
‫العبارات التي تنويس فيها ما كان هلا من املعنى البياين حتى أصبحت كاألمثال ال‬
‫حتتمل التغيري‪ ،‬ومن هنا جاء وصفها «باملسكوكة»‪ .‬وإنام ينبغي ذكر الضامئم هنا؛ ألن‬
‫االكتفاء بذكر الكلمة دون ضامئمها ال يصل باملعجم إىل غايته املنشودة»‪.‬‬

‫‪ 2.3‬تصنيفات وأنواع الرتاكيب االصطالحية‬


‫تبع ًا لتنوع الرتاكيب االصطالحية وتعدد خصائصها‪ ،‬تنوعت التصنيفات املقرتحة‬
‫هلا‪ ،‬وسنتناول يف هذا اجلزء عددا من التقسيامت املعتربة وفقا ملعايري ومستويات لغوية‬
‫خمتلفة‪.‬‬
‫من أشهر التصنيفات استعامالُ وأكثرها مرونة وسهولة يف التطبيق خاصة يف مهام‬
‫املعاجلة اآللية للمتالزمات اللفظية‪ ،‬تقسيمها وف ًقا لنوع الكلمة األوىل يف الرتكيب أو‬

‫‪-135-‬‬
‫تبع ًا ملا يسمى برأس املركب‪ ،‬وهذا التصنيف يعتمد عىل اختيار الباحث ألقسام الكالم‬
‫املعتمدة يف بحثه‪ ،‬فعىل سبيل املثال‪ ،‬بناء عىل التصنيف العريب التقليدي للكالم إىل اسم‬
‫وفعل وحرف‪ ،‬تكون املركبات تبع ًا لذلك‪ :‬اسمية مثل (ثقيل الدم)‪ ،‬أو فعلية مثل‬
‫(ركب رأسه)‪ ،‬أو حرفية مثل (عىل عينك يا تاجر)‪.‬‬
‫واختذت بعض التصنيفات من عدد الوحدات املعجمية التي تتكون منها معيار ًا‬
‫للتقسيم وتبع ًا لذلك تكون الرتاكيب‪ :‬ثنائية‪ ،‬أو ثالثية‪ ،‬أو رباعية ‪ ...‬إلخ‪.‬‬
‫وقدم ابن عمر (‪ )2007‬تصنيف ًا آخر هلذه الرتاكيب مبني عىل استقراء عدد كبري من‬
‫األمثلة كام يظهر يف الشكل رقم ‪. 3‬‬

‫ﺷﻜﻞ ‪ :3‬ﺗﺼﻨﯿﻒ اﻟﻤﺘﻼزﻣﺎت اﻟﻠﻔﻈﯿﺔ وﻓﻘﺎ ً ﻻﺑﻦ ﻋﻤﺮ )‪ (2007‬ص‪.26 23‬‬


‫الشكل ‪ :3‬تصنيف املتالزمات اللفظية وفق ًا البن عمر (‪ )2007‬ص‪.26-23‬‬
‫وﯾﻈﮭﺮ ﻓﻲ ھﺬا اﻟﺘﺼﻨﯿﻒ اﻟﺘﺪاﺧﻞ ﺑﯿﻦ ﺑﻌﺾ ھﺬه اﻷﻧﻮاع اﻟﻤﻘﺘﺮﺣﺔ ﻟﻠﺘﺮاﻛﯿﺐ؛ وذﻟﻚ‬
‫ويظهر يف هذا التصنيف التداخل بني بعض هذه األنواع املقرتحة للرتاكيب؛ وذلك‬
‫ﻟﻌﺪم وﺟﻮد ﻣﻌﺎﯾﯿﺮ ﻟﻐﻮﯾﺔ ﻣﻤﯿﺰة ﻟﮭﺎ‪ ،‬وھﺬه ھﻲ اﻟﺤﺎل اﻟﻐﺎﻟﺒﺔ ﻓﻲ ﻛﺜﯿﺮ ﻣﻦ اﻟﺘﺼﻨﯿﻔﺎت‬
‫لعدم وجود معايري لغوية مميزة هلا‪ ،‬وهذه هي احلال الغالبة يف كثري من التصنيفات‬
‫اﻟﻤﻘﺘﺮﺣﺔ ﻟﻠﻤﺘﻼزﻣﺎت اﻟﻠﻔﻈﯿﺔ‪ ،‬وﺧﺎﺻﺔ ﻋﻨﺪﻣﺎ ﯾﻜﻮن اﻟﺘﻔﺮﯾﻖ ﺑﯿﻦ أﻧﻮاﻋﮭﺎ ﻣﻌﺘﻤﺪاً ﻋﻠﻰ‬
‫ﺗﻔﺴﯿﺮمعتمد ًا عىل‬
‫ﻣﻔﺎھﯿﻤﮭﺎ‪ ،‬وﺗﺒﻌﺎ ً‬ ‫ﻓﻲ أنواعها‬
‫اﻟﻠﻐﻮﯾﯿﻦ بني‬
‫يكون التفريق‬
‫عندماﺑﯿﻦ‬
‫إﺟﻤﺎع‬ ‫وخاصة‬
‫اﻟﻐﺎﻟﺐ‬‫اللفظية‪،‬‬ ‫للمتالزمات‬
‫ﯾﺤﺼﻞ ﻓﻲ‬ ‫ﻣﻌﺎﯾﯿﺮاملقرتحة‬
‫دﻻﻟﯿﺔ ﻻ‬
‫ﻠﯿﮭﺎ‪.‬بني اللغويني يف تفسري مفاهيمها‪ ،‬وتبع ًا لذلك‬
‫الغالبﻋإمجاع‬ ‫حيصل يف‬
‫ﺑﺎﻻﺳﺘﻨﺎد‬ ‫داللية ال‬
‫اﻟﻌﺒﺎرات‬ ‫معايري‬
‫ﺗﻘﺴﯿﻢ‬ ‫ﻟﺬﻟﻚ ﻓﻲ‬
‫يف تقسيم العبارات باالستناد عليها‪.‬‬
‫وﻓﻲ ﺗﺼﻨﯿﻒ آﺧﺮ ﺗﺒﻨﻰ داود )‪ (2014‬ﻓﻲ ﻣﻌﺠﻤﮫ ﻟﻠﺘﻌﺎﺑﯿﺮ اﻻﺻﻄﻼﺣﯿﺔ ﺗﻘﺴﯿﻢ ھﺬه‬ ‫‪-‬‬
‫اﻟﺘﺮاﻛﯿﺐ إﻟﻰ ‪ 13‬ﻧﻮﻋﺎ ً ﻛﻤﺎ ﯾﻈﮭﺮ ﻓﻲ اﻟﺸﻜﻞ ‪.4‬‬

‫‪-136-‬‬
‫ويف تصنيف آخر تبنى داود (‪- )2014‬يف معجمه للتعابري االصطالحية‪ -‬تقسيم‬
‫هذه الرتاكيب إىل ‪ 13‬نوع ًا كام يظهر يف الشكل ‪.4‬‬

‫ص‪.(22 21.)22-21‬‬
‫‪ ،2014،2014‬ص‬
‫(داود‪)،‬داود‪،‬‬
‫اﻟﻌﺮﺑﯿﺔ‬ ‫اﻟﻠﻐﺔ‬
‫العربية‬ ‫ﻓﻲاللغة‬ ‫اﻻﺻﻄﻼﺣﯿﺔ‬
‫االصطالحية يف‬ ‫ﻟﻠﺘﻌﺒﯿﺮات‬
‫للتعبريات‬ ‫ﺗﺼﻨﯿﻒ داود‬
‫تصنيف داود‬ ‫ﺷﻜﻞ ‪:4‬الشكل ‪:4‬‬

‫اﻟﻤﺴﺘﻮى اﻟﺪﻻﻟﻲ‬ ‫تراعيﺗﺮاﻋﻲ‬


‫املستوى الداليل‬ ‫اﻟﺘﺼﻨﯿﻒ‬
‫ھﺬا التصنيف‬ ‫ﻓﻲيف هذا‬ ‫اﻷﻧﻮاع‬
‫األنواع‬ ‫أﻏﻠﺐ أنھﺬه‬
‫أغلب هذه‬ ‫ونالحظأنكذلك هنا‬
‫وﻧﻼﺣﻆ ﻛﺬﻟﻚ ھﻨﺎ‬
‫ﻏﺎﻟﺒﺎ ً ﻣﺎ ﺗﻜﻮ‬ ‫الداللية غالب ًا ما‬
‫اﻟﺪﻻﻟﯿﺔتكون‬ ‫اﻟﻤﻌﺠﻤﯿﺔ‪،‬واملعايري‬
‫واﻟﻤﻌﺎﯾﯿﺮ‬ ‫الوحدات املعجمية‪،‬‬ ‫للتفريق بني‬
‫اﻟﻮﺣﺪات‬ ‫كمعيار أسايس‬
‫ﻟﻠﺘﻔﺮﯾﻖ ﺑﯿﻦ‬ ‫ﻛﻤﻌﯿﺎر أﺳﺎﺳﻲ‬
‫ﻛﻤﺎ ذﻛﺮﻧﺎ ﻓﻲ‬ ‫التعليق‬ ‫اﻟﺘﻄﺒﯿﻖ ذكرنا يف‬
‫اﻟﻌﻤﻠﻲ‬ ‫التطبيق العميل كام‬
‫ﻣﺤﺎوﻟﺔ‬ ‫ﻋﻨﺪحماولة‬
‫وخاصة عند‬
‫وﺧﺎﺻﺔ‬‫اإلشكاليات‬ ‫مصحوبة ببعض‬
‫اﻹﺷﻜﺎﻟﯿﺎت‬ ‫ﻣﺼﺤﻮﺑﺔ ﺑﺒﻌﺾ‬
‫اﻟﺘﺼﻨﯿﻒالسابق‪.‬‬
‫اﻟﺴﺎﺑﻖ‪.‬‬ ‫اﻟﺘﻌﻠﯿﻖ ﻋﻠﻰعىل التصنيف‬

‫أكثرهاأﻛﺜﺮھﺎ ﺗﺄﺛﺮ‬
‫ﯾﻌﺪ ﻣﻦ‬ ‫ومن التصنيفات املقرتحة كذلك تصنيف غريم (‪ ،)2014‬والذي يعد من‬
‫وﻣﻦ اﻟﺘﺼﻨﯿﻔﺎت اﻟﻤﻘﺘﺮﺣﺔ ﻛﺬﻟﻚ ﺗﺼﻨﯿﻒ ﻏﺮﯾﻢ )‪ ،(2014‬واﻟﺬي‬
‫تأثر ًا باملناهج اللغوية احلديثة‪ ،‬التي يراعي بعضها مدى االستفادة من هذه التصنيفات‬
‫ﺑﺎﻟﻤﻨﺎھﺞ اﻟﻠﻐﻮﯾﺔ اﻟﺤﺪﯾﺜﺔ‪ ،‬اﻟﺘﻲ ﯾﺮاﻋﻲ ﺑﻌﻀﮭﺎ ﻣﺪى اﻻﺳﺘﻔﺎدة ﻣﻦ ھﺬه اﻟﺘﺼﻨﯿﻔﺎت ﻓﻲ‬
‫يف التطبيقات اآللية ملعاجلة املتالزمات اللفظية‪ .‬ويظهر يف جدول ‪ 2‬تقسيم الرتاكيب‬
‫اﻟﺘﻄﺒﯿﻘﺎت اﻵﻟﯿﺔ ﻟﻤﻌﺎﻟﺠﺔ اﻟﻤﺘﻼزﻣﺎت اﻟﻠﻔﻈﯿﺔ‪ .‬وﯾﻈﮭﺮ ﻓﻲ(((ﺟﺪول ‪ 7‬ﺗﻘﺴﯿﻢ اﻟﺘﺮاﻛﯿﺐ‬
‫االصطالحية إىل أربعة أنواع بناء عىل معياري الثبات والشفافية ‪ ،‬وكام ُيالحظ أن‬
‫اﻻﺻﻄﻼﺣﯿﺔ إﻟﻰ أرﺑﻌﺔ أﻧﻮاع ﺑﻨﺎء ﻋﻠﻰ ﻣﻌﯿﺎري اﻟﺜﺒﺎت واﻟﺸﻔﺎﻓﯿﺔ‪ ،1‬وﻛﻤﺎ ﯾُﻼﺣﻆ أ‬
‫اﻟﺘﺮﻛﯿﺐ أﻗﻞ ﺛﺒﺎ‬
‫ﻛﺎنبالشفافية هنا‬
‫ﻛﻠﻤﺎكام يقصد‬
‫أﻧﮫاملختلفة‪،‬‬
‫ﯾﻌﻨﻲاللغوية‬
‫وذﻟﻚالسياقات‬ ‫اﻟﻤﻌﯿﺎرﯾﻦ‬
‫وعدم تغريها يف‬ ‫ھﺬﯾﻦ تالزم مكوناته‬ ‫بثبات ﺑﯿﻦ‬
‫الرتكيب هنا درجة‬ ‫ﻋﻜﺴﯿﺔ‬‫ھﻨﺎك ﻋﻼﻗﺔ‪ -1‬يقصد‬
‫ﺻﺤﯿﺢ‪.‬‬
‫االصطالحي أو الكيل ومدى بعده عن املعنى احلريف للكلامت التي يتكون منها‪.‬‬ ‫واﻟﻌﻜﺲ‬
‫الرتكيب يف معناه‬ ‫ﻛﺎن أﻛﺜﺮ ﺷﻔﺎﻓﯿﺔ‪،‬‬
‫مستوى استعامل‬

‫اﻟﺘﻌﺒﯿﺮ‬ ‫اﻟﻨﺤﺖ‬ ‫اﻟﻤﺘﻼزﻣﺎت‬


‫‪-137-‬‬ ‫اﻟﺘﺮاﻛﯿﺐ‬ ‫اﻟﻤﻌﯿﺎر‬
‫اﻻﺻﻄﻼﺣﻲ‬ ‫اﻟﻠﻔﻈﯿﺔ‬ ‫اﻟﺤﺮة‬
‫هناك عالقة عكسية بني هذين املعيارين وذلك يعني أنه كلام كان الرتكيب أقل ثباتا كان‬
‫أكثر شفافية‪ ،‬والعكس صحيح‪.‬‬
‫التعبري االصطالحي‬ ‫النحت‬ ‫املتالزمات اللفظية‬ ‫الرتاكيب احلرة‬ ‫املعيار‬
‫درجة الثبات‬
‫درجة الشفافية‬

‫جدول ‪ :2‬تصنيف الرتاكيب املعجمية بحسب درجة ثباهتا وشفافيتها (غريم‪ 2014 ،‬ص‪.)299.‬‬

‫وكذلك اقرتحت غريم تقسي ًام آخر للمتالزمات اللفظية مبني عىل أقسام الكالم لرأس‬
‫الرتكيب وكذلك الوظائف النحوية املتنوعة للتعابري االصطالحية‪ ،‬ويشمل هذا التصنيف‬
‫ثالثة مستويات تنشأ بينها عدد من العالقات اهلرمية كام يظهر ذلك يف اجلدول رقم ‪.3‬‬
‫أمثلة‬ ‫املستوى األصغر‬ ‫املستوى املتوسط‬ ‫املستوى األكرب‬
‫بزغ الفجر‬ ‫فعل ‪+‬اسم فاعل‬ ‫فعل ‪ +‬اسم‬
‫أسدل الستار‬ ‫فعل ‪ +‬اسم‬ ‫فعل ‪ +‬مفعول به‬
‫أخذ عىل عاتقه‬ ‫(فعل ‪+‬حرف) ‪ +‬اسم‬
‫فعل ‪ +‬مفعول مطلق خضع خضوع ًا تام ًا‬
‫تفصد عرق ًا‬ ‫فعل ‪ +‬حال‬
‫اسرتسل يف احلديث‬ ‫فعل ‪( +‬حرف ‪ +‬اسم)‬
‫إطالق النار‬ ‫اسم ‪ +‬اسم(إضافة)‬ ‫اسم ‪ +‬اسم‬
‫صفة ‪ +‬اسم معرف‬
‫سليط اللسان‬
‫(إضافة غري حقيقية)‬
‫أغلبية ساحقة‬
‫اسم‪ +‬نفي‪+‬صفة‪/‬اسم‬ ‫اسم ‪ +‬صفة‬
‫زيارة غري رسمية‬
‫جزأ ال يتجزأ‬ ‫اسم ‪ +‬نفي ‪ +‬فعل‬
‫رصاع عىل السلطة‬ ‫اسم ‪ +‬حرف ‪+‬اسم‬ ‫اسم ‪ +‬حرف ‪ +‬اسم‬
‫عنقود من العنب‬ ‫اسم‪ +‬من ‪+‬اسم‬

‫جدول ‪:3‬تصنيف املتالزمات وفق ًا ألقسام الكالم والوظائف النحوية (غريم‪ 2014،‬ص‪.)310-309.‬‬

‫‪-138-‬‬
‫ومن املفيد أن نشري هنا إىل أن ما يعرف بأسامء األعالم ‪ Named Entity‬وما يتعلق‬
‫باستخراجها والتعرف اآليل عليها يف النصوص قد أصبح إىل حد ما جماال علمي ًا مستق ً‬
‫ال‬
‫وله أبحاثه ودراساته املتعددة؛ ولذلك فلن يتضمن هذا الفصل معاجلة هذا النوع من‬
‫الرتاكيب‪ ،‬مع األخذ يف االعتبار أن نتائج كثري من األبحاث يف هذ املجال تظهر الوصول‬
‫إىل دقة عالية يف املعاجلة احلاسوبية هلذا النوع من الرتاكيب؛ وذلك لتميزها بالثبات‬
‫اللغوي‪ ،‬وقلة التعقيدات والتغريات اللغوية التي تطرأ عليها يف السياقات املختلفة‪.‬‬

‫‪ -3‬مهام املعاجلة احلاسوبية للرتاكيب االصطالحية‬


‫تعددت املناهج املتبعة يف تقديم حلول ملشاكل املعاجلة اآللية للغات الطبيعية‪ ،‬ووفقا‬
‫للمنهج املختار‪ُ ،‬يدد الباحث الطرق واألدوات احلاسوبية التي تساعده عىل إجابة‬
‫أسئلة البحث وحل مشكالته وحتدياته‪ ،‬ويرى ‪ (2010) Dale‬أن أغلب الطرق البحثية‬
‫املتبعة يف دراسات معاجلة اللغات يمكن تصنيفها ملناهج أربعة رئيسة وهي كام ييل‪:‬‬
‫Ÿ Ÿمناهج لغوية تقليدية‪ :‬تستفيد من املعرفة اللغوية وتقدمها يف املعاجلة احلاسوبية‬
‫وتعتمد عىل حماولة متثيل قواعد اللغة ونقلها عىل شكل خوارزميات يف تطبيقات‬
‫املعاجلة اآللية للغات‪.‬‬
‫Ÿ Ÿمناهج إحصائية‪ :‬تطبق غالبا عىل املدونات اللغوية الضخمة‪ ،‬وتستخدم‬
‫االختبارات والنامذج واملعلومات اإلحصائية حلل مشكالت املعاجلة احلاسوبية‬
‫للغة‪.‬‬
‫Ÿ Ÿمناهج معتمدة عىل تقنيات الذكاء االصطناعي باإلفادة من تقنيات تعلم اآللة‬
‫وخوارزميات الشبكات العصبية االصطناعية وتقنيات التعلم العميق‪.‬‬
‫Ÿ Ÿمناهج خمتلطة أو متكاملة وهي املناهج التي توظف عددا من املناهج السابقة‬
‫يف الدراسة الواحدة؛ وذلك لتاليف عيوب االقتصار عىل منهج واحد يف حل‬
‫املشاكل البحثية املعقدة‪.‬‬
‫ويف أدبيات املعاجلة اآللية للمتالزمات اللفظية من الشائع استعامل هذه املناهج‬
‫البحثية واإلفادة منها يف حتسني مهام املعاجلة احلاسوبية للرتاكيب االصطالحية يف خمتلف‬

‫‪-139-‬‬
‫مستويات التحليل اللغوي‪ ،‬ولكي نكون تصور ًا شامال للتطبيقات احلاسوبية يف معاجلة‬
‫هذه الظاهرة اللغوية يمكننا أن نشري هنا إىل أهم هذه املهام والعالقة بينها‪ ،‬فقد ذكر‬
‫‪ (2017) Constant et al.‬يف مراجعته الشاملة ألدبيات املعاجلة احلاسوبية للرتاكيب‬
‫االصطالحية أن أغلب األبحاث يف هذا امليدان تسعى حلل مشكلتني أساسيتني ومها‪:‬‬
‫مشكلة االستخراج اآليل هلذه الرتاكيب من املدونات اللغوية‪ ،‬وكذلك مشكلة التعرف‬
‫اآليل عليها يف اللغة املكتوبة أو املسموعة‪ ،‬والعمل عىل حل هاتني املشكلتني يف املعاجلة‬
‫اآللية للرتاكيب االصطالحية يسهم بشكل فعال يف حتسني أداء كثري من تطبيقات‬
‫معاجلة اللغات وتعزيز مستوى الدقة يف نتائجها‪ .‬ومن أهم هذه التطبيقات الرتمجة‬
‫ﻣﺸﻜﻠﺔ اﻟﺘﻌﺮف اﻵﻟﻲ ﻋﻠﯿﮭﺎ ﻓﻲ اﻟﻠﻐﺔ اﻟﻤﻜﺘﻮﺑﺔ أو اﻟﻤﺴﻤﻮﻋﺔ‪ ،‬واﻟﻌﻤﻞ ﻋﻠﻰ ﺣﻞ ھﺎﺗﯿﻦ‬
‫اآللية واملهام احلاسوبية اخلاصة بالتحليل اللغوي بكافة مستوياته ومراحله‪ ،‬كالتحليل‬
‫اﻟﻤﺸﻜﻠﺘﯿﻦ ﻓﻲ اﻟﻤﻌﺎﻟﺠﺔ اﻵﻟﯿﺔ ﻟﻠﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ ﯾﺴﮭﻢ ﺑﺸﻜﻞ ﻓﻌﺎل ﻓﻲ ﺗﺤﺴﯿﻦ أداء‬
‫الرصيف والنحوي والداليل وكذلك ما يتعلق بتقسيم الكلامت وترميزها باملعلومات‬
‫ﻧﺘﺎﺋﺠﮭﺎ‪ .‬وﻣﻦ أھﻢ ھﺬه‬ ‫ﻛﺜﯿﺮ ﻣﻦ ﺗﻄﺒﯿﻘﺎت ﻣﻌﺎﻟﺠﺔ اﻟﻠﻐﺎت وﺗﻌﺰﯾﺰ ﻣﺴﺘﻮى اﻟﺪﻗﺔ ﻓﻲ‬
‫ونوع‬ ‫اللغوية‪،‬‬
‫ﺑﺎﻟﺘﺤﻠﯿﻞ اﻟﻠﻐﻮي ﺑﻜﺎﻓﺔ ﻣﺴﺘﻮﯾﺎﺗﮫ‬ ‫الظاهرة‬ ‫ملعاجلة هذه‬
‫اﻟﺨﺎﺻﺔ‬ ‫الرئيستني‬
‫اﻟﺤﺎﺳﻮﺑﯿﺔ‬ ‫واﻟﻤﮭﺎم‬‫املهمتني‬
‫اﻟﺘﺮﺟﻤﺔ ‪5‬اﻵﻟﯿﺔ‬
‫ويوضح شكل‬ ‫اللغوية‪.‬‬
‫اﻟﺘﻄﺒﯿﻘﺎت‬
‫بالرضورةﺑﺘﻘﺴﯿﻢ اﻟﻜﻠﻤﺎت‬
‫يؤديﻣﺎ ﯾﺘﻌﻠﻖ‬ ‫االستخراج اآليل‬
‫وﻛﺬﻟﻚ‬ ‫مهام واﻟﺪﻻﻟﻲ‬ ‫عىل حتسني‬
‫واﻟﻨﺤﻮي‬ ‫ﻛﺎﻟﺘﺤﻠﯿﻞأن العمل‬
‫اﻟﺼﺮﻓﻲ‬ ‫وﻣﺮاﺣﻠﮫ‪،‬حيث يظهر‬
‫العالقة بينها‪،‬‬
‫وﯾﻮﺿﺢاالصطالحية يف النصوص املعاجلة‪.‬‬ ‫ﺔ‪ .‬الرتاكيب‬
‫اﻟﻠﻐﻮﯾعىل‬
‫ﺑﺎﻟﻤﻌﻠﻮﻣﺎت اآليل‬
‫نتائج مهام التعرف‬ ‫إىل حتسني‬
‫وﺗﺮﻣﯿﺰھﺎ‬

‫ﺑﯿﻨﮭﺎ‪ ،‬ﺣﯿﺚ ﯾﻈﮭﺮ أن‬ ‫اﻟﻌﻼﻗﺔ‬


‫‪(Constant‬‬ ‫وﻧﻮع‬
‫‪et al.,‬‬ ‫اﻟﻠﻐﻮﯾﺔ‪2017،‬‬ ‫اﻟﻈﺎھﺮة‬
‫والعالقة بينها )‬ ‫للرتاكيبھﺬه‬
‫االصطالحية‬ ‫احلاسوبيةﻟﻤﻌﺎﻟﺠﺔ‬
‫اﻟﺮﺋﯿﺴﺘﯿﻦ‬
‫اﻟﻤﮭﻤﺘﯿﻦ املعاجلة‬
‫الشكل ‪ :5‬مهام‬
‫اﻟﻌﻤﻞ ﻋﻠﻰ ﺗﺤﺴﯿﻦ ﻣﮭﺎم اﻻﺳﺘﺨﺮاج اﻵﻟﻲ ﯾﺆدي ﺑﺎﻟﻀﺮورة إﻟﻰ ﺗﺤﺴﯿﻦ ﻧﺘﺎﺋﺞ ﻣﮭﺎم‬
‫وكذلك يشري السهامن مزدوجي االجتاه إىل أن العالقة متبادلة بني تطبيقات معاجلة‬
‫اﻟﺘﻌﺮف اﻵﻟﻲ ﻋﻠﻰ اﻟﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ ﻓﻲ اﻟﻨﺼﻮص اﻟﻤﻌﺎﻟﺠﺔ‪.‬‬
‫اللغة ومهمة التعرف اآليل عىل الرتاكيب االصطالحية‪ ،‬فتحسن أحد هذه املهام‬
‫احلاسوبية يؤدي إىل حتسن األخرى‪ ،‬فعىل سبيل املثال إذا وصلت خوارزمية التعرف‬
‫اآليل إىل نتائج دقيقة فإن هذا يؤدي إىل حتسن دقة املخرجات اللغوية لتطبيقات التحليل‬
‫اللغوي والرتمجة اآللية‪ ،‬والعكس صحيح كذلك فارتفاع مستوى الدقة يف نتائج هذه‬
‫التطبيقات يؤدي إىل حتسن أداء مهام االستخراج اآليل للرتاكيب االصطالحية‪ .‬ومن‬

‫‪-140-‬‬
‫ﺷﻜﻞ ‪ :5‬ﻣﮭﺎم اﻟﻤﻌﺎﻟﺠﺔ اﻟﺤﺎﺳﻮﺑﯿﺔ ﻟﻠﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ واﻟﻌﻼﻗﺔ ﺑﯿﻨﮭﺎ )‪(Constant et al., 2017‬‬

‫وﻛﺬﻟﻚ ﯾﺸﯿﺮ اﻟﺴﮭﻤﺎن ﻣﺰدوﺟﻲ اﻻﺗﺠﺎه إﻟﻰ أن اﻟﻌﻼﻗﺔ ﻣﺘﺒﺎدﻟﺔ ﺑﯿﻦ ﺗﻄﺒﯿﻘﺎت ﻣﻌﺎﻟﺠﺔ‬
‫اجلدير بالذكر هنا أن نوضح الفرق بني املهمتني الرئيستني ملعاجلة الرتاكيب حاسوبي ًا؛‬
‫وذلك للخلط الذي قد يقع من كثري من الباحثني يف هذا املجال‪ ،‬فنقول إنه يمكننا‬
‫التفريق بينهام بمعرفة الفرق بني خمرجات كل مهمة منهام‪ ،‬فعندما نطبق إحدى‬
‫تقنيات االستخراج اآليل فإن املخرجات حينئذ تكون عبارة عن قائمة من الرتاكيب‬
‫الـمستخرجة آليا من مدونة لغوية‪ ،‬وقد ُتزن بعد ذلك يف معجم حاسويب‪ ،‬أو تستعمل‬ ‫ُ‬
‫كمصدر لغوي يف إحدى مهام معاجلة اللغة املختلفة‪.‬‬
‫أما فيام يتعلق بمخرجات مهمة التعرف اآليل فهي عبارة عن نصوص موسومة‬
‫املتعرف عليها‪ ،‬وختتلف هذه الرموز تبع ًا الختالف آلية‬ ‫َّ‬ ‫برموز لتمييز الرتاكيب‬
‫التصنيف املعتمدة للرتاكيب االصطالحية‪ ،‬وكذلك طريقة عمل خوارزميات التعرف‬
‫اآليل‪ .‬وسنتناول باختصار يف األجزاء التالية من هذا الفصل عدد ًا من األبحاث التي‬
‫حاولت تقديم إضافة معرفية وتطبيقية يف إحدى مهام املعاجلة احلاسوبية هلذه الظاهرة‬
‫اللغوية‪.‬‬

‫‪ 3.1‬مهمة االستخراج اآليل للرتاكيب االصطالحية‬


‫تعد مهمة االستخراج اآليل للرتاكيب االصطالحية‪Multi-Word Expressions‬‬
‫‪ Extraction‬من أكثر املهام احلاسوبية بحثا يف أدبيات معاجلة اللغات املتصلة بالرتاكيب‬
‫االصطالحية‪ ،‬وخمرجات هذه املهمة احلاسوبية غالبا ما تكون كام ذكرنا عبارة عن‬
‫قوائم من التعبريات االصطالحية املستخرجة عن طريق نموذج حاسويب والتي يمكن‬
‫بعد ذلك إضافتها ملعجم حاسويب عام أو استعامهلا يف بناء معجم خاص باملتالزمات‬
‫اللفظية‪ .‬ومن أهم أهداف هذه املهمة استكشاف التعبريات االصطالحية اجلديدة التي‬
‫تنشأ يف االستعامل اللغوي املعارص‪ ،‬وكذلك معرفة التطور الداليل للتعبري االصطالحي‬
‫يف سياقات نصية وزمنية خمتلفة باالعتامد عىل استقراء عدد من املدونات اللغوية‪.‬‬
‫وإذا ما أردنا أن نضع تعريف ًا هلذه املهمة فيمكن أن نقول إهنا عبارة عن جمموعة‬
‫من العمليات اآللية أو غري اآللية والتي يطبق فيها نموذج حاسويب يتكون من مراحل‬
‫معاجلة متعددة ويتضمن عددا من خوارزميات التنقيب عن البيانات الستخراج أنواع‬
‫خمتلفة من الرتاكيب االصطالحية املستهدفة يف الدراسة بناء عىل معايري لغوية أو‬
‫إحصائية حمددة‪.‬‬

‫‪-141-‬‬
‫وقد تعددت املناهج والطرق املستعملة يف التطبيق العميل هلذه املهمة‪ ،‬ولكن يف‬
‫الغالب أهنا تتفق يف رضورة وجود عدد من اخلطوات األساسية‪ ،‬كاالعتامد عىل مدونة‬
‫لغوية يف تطبيق نموذج االستخراج‪ ،‬واألفضل أن تكون املدونة معاجلة بأحد برامج‬
‫التحليل اللغوي اآليل وموسومة برموز لعدد من املعلومات اللغوية الرصفية والنحوية‪،‬‬
‫ثم بعد ذلك يكون تطبيق النموذج احلاسويب لالستخراج اآليل والذي يتضمن عددا‬
‫من اخلوارزميات واملعادالت الرياضية أو القواعد اللغوية املحوسبة‪ ،‬و يتضمن نموذج‬
‫االستخراج كذلك يف الغالب عدد ًا من مراحل املعاجلة اآللية وغري اآللية‪ ،‬والتي تتعلق‬
‫بتصفية وفلرتة النتائج األولية لنموذج االستخراج اآليل؛ وذلك الستبعاد جمموعات‬
‫من أنواع الرتاكيب غري املناسبة‪ ،‬ويشمل ذلك الرتاكيب غري املفيدة‪ ،‬أو التي حتوي‬
‫أخطاء لغوية‪ ،‬أو ال تتناسب مع املعايري املحددة للرتاكيب املراد استخراجها‪.‬‬

‫الشكل ‪ :6‬مراحل املعاجلة املتبعة يف مهمة استخراج الرتاكيب االصطالحية‪.‬‬

‫يوضح الشكل ‪ 6‬اخلطوات املتبعة يف مهمة االستخراج اآليل للرتاكيب االصطالحية‪،‬‬


‫ويظهر يف الرسم أن عملية االستخراج البد أن تبنى عىل مدونة لغوية حتوي عددا من‬
‫النصوص املكتوبة‪ ،‬ومستوى جودة املدونة اللغوية‪-‬من ناحية طريقة مجعها‪ ،‬وكذلك‬
‫مدى تزويدها باملعلومات اللغوية عن طريق التحليل اللغوي اآليل أو غري اآليل‪ -‬هلا أثر‬
‫كبري يف حتديد مستوى جودة املخرجات النهائية لنموذج االستخراج‪.‬‬
‫بعد ذلك تأيت مرحلة هتيئة املدونة وذلك بناء عىل اهلدف املحدد ملهمة االستخراج‪،‬‬
‫فعىل سبيل املثال‪ ،‬قد يكون اهلدف هو االقتصار عىل استكشاف الرتاكيب املرتبطة‬

‫‪-142-‬‬
‫بنوع لغوي معني كالرتاكيب املستعملة يف اللغة العلمية مثالً‪ ،‬وهنا ينبغي أن يقترص‬
‫تطبيق النموذج عىل هذا النوع من النصوص لتحسني مستوى النتائج املتوقعة لنموذج‬
‫االستخراج اآليل‪.‬‬
‫ثم يف مرحلة تطبيق النموذج تُنفذ عدد من العمليات احلاسوبية التي هتدف إىل‬
‫استكشاف أنواع من الرتاكيب املقصودة‪ ،‬وتصنيفها بعد ذلك يف جمموعات وفق ًا ملعايري‬
‫لغوية أو إحصائية‪ .‬ويف املرحلة األخرية تطبق جمموعة من العمليات احلاسوبية لتصفية‬
‫النتائج األولية؛ وذلك باستبعاد العنارص املستخرجة باخلطأ أو بعض أنواع الرتاكيب‬
‫غري املرغوب فيها يف سياق الدراسة‪ ،‬وتتنوع املخرجات النهائية ملهمة االستخراج اآليل‬
‫للرتاكيب االصطالحية‪ ،‬فقد تكون عىل شكل قوائم تراكيب مصنفة يف فئات متجانسة‪،‬‬
‫أو تكون عىل شكل جمموعة من الوحدات املعجمية اجلديدة التي يمكن إضافتها ملعجم‬
‫سابق‪ ،‬أو تُستعمل أساس ًا ملعجم حديث ألنواع حمددة من الرتاكيب االصطالحية‪.‬‬
‫ويف أدبيات معاجلة اللغات تعددت وتنوعت الطرق املستعملة يف استخراج‬
‫الرتاكيب االصطالحية‪ ،‬فمن األبحاث ما يركز عىل تطبيق طريقة الستخراج نوع واحد‬
‫حمدد من الرتاكيب‪ ،‬كاملركبات االسمية كام يف هذه الدراسات‪Girju et al., 2005; :‬‬
‫‪ Salehi et al., 2015‬أو املركبات الفعلية كام يف الدراسات التالية‪Stevenson et al., :‬‬
‫‪ 2004; Ramisch et al., 2008 ; McCarthy et al., 2003‬ومنها ما يتضمن طرق ًا‬
‫هجينة أو متكاملة الستخراج جمموعة متنوعة من أنواع الرتاكيب االصطالحية كام يف‬
‫هذه األمثلة‪.)da Silva et al. 1999; Seretan 2011; Ramisch 2015( :‬‬
‫ويمكن تقسيم الطرق املستعملة يف استخراج الرتاكيب االصطالحية وفق ًا للمنهجية‬
‫املتبعة يف أبحاث معاجلة اللغات‪ ،‬والتي سبق ذكرها باختصار يف القسم الثالث من هذا‬
‫الفصل‪ ،‬فبعض األبحاث تستعمل الطرق التقليدية والتي تركز عىل رضورة مراعاة‬
‫اخلصائص اللغوية واملعلومات املعرفية للرتاكيب وتعزز من دورها يف تطبيق نموذج‬
‫االستخراج‪ ،‬وعند تطبيق هذه الطرق من املهم أن تكون املدونة املختارة موسومة بعدد‬
‫من املعلومات اللغوية التي قد تتضمن أقسام الكالم وأنواع الرتاكيب والعالقات النحوية‬
‫املتعددة‪ ،‬وهذه بعض األمثلة للدراسات التي استعملت مثل هذه الطرق يف استخراج‬
‫الرتاكيب االصطالحية‪.)Bartsch, 2004; Cowie, 1998; Mel’ćuk, 1998(:‬‬

‫‪-143-‬‬
‫ومن األبحاث يف هذا املجال ما يركز عىل توظيف املعلومات اإلحصائية وحياول‬
‫اإلفادة منها والرتكيز عليها يف عملية استكشاف الرتاكيب اللغوية‪ ،‬وخاصة يف ظل‬
‫توفر مدونات لغوية ضخمة تعزز من دقة املعلومات اإلحصائية املستخرجة منها‪ ،‬وهذا‬
‫املنهج اإلحصائي يف استخراج الرتاكيب االصطالحية من أكثر املناهج استعامالً؛ وذلك‬
‫لسهولة تطبيقه آليا وعدم حاجته إىل التدخل البرشي كثري ًا يف عملية تنفيذ النموذج‪،‬‬
‫وتطبق هذه الطرق بشكل رسيع وتؤدي إىل نتائج متميزة ألهنا تستثمر القدرات الفائقة‬
‫للحاسوب يف إحصاء ومعاجلة كميات ضخمة من البيانات والنصوص اللغوية التي قد‬
‫تصل إىل باليني أو تريليونات الكلامت‪.‬‬
‫ومن أمثلة النامذج املعتمدة عىل املنهج اإلحصائي ما يعرف بنموذج إن‪-‬قرام‬
‫اﻟﻜﻠﻤﺎتﻓﻲﻓﻲ‬
‫اﻟﻜﻠﻤﺎت‬ ‫ﻣﺪى ﺗﻼزم‬ ‫ﺗﺤﺪﯾﺪ ﻣﺪى‬ ‫ﻣﺤﻮري ﻓﻲ‬
‫دورﻣﺤﻮري‬ ‫واﻟﺘﻲﻟﮭﺎﻟﮭﺎدور‬
‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬واﻟﺘﻲ‬
‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬‬ ‫واﻟﻌﻼﻗﺎت‬
‫بخوارزميات قياس االرتباط‬ ‫ﺗﻼزمما يعرف‬ ‫استعامل‬ ‫ﺗﺤﺪﯾﺪ‬
‫وكذلك‬ ‫ﻓﻲ‬ ‫‪n-gram‬‬ ‫اإلحصائي ‪model‬‬ ‫واﻟﻌﻼﻗﺎت‬
‫درﺟﺔ‬
‫درﺟﺔ‬‫ﺗﺤﺪد‬
‫ﺗﺤﺪد‬ ‫اﻟﺘﻲ‬
‫اﻹﺣﺼﺎﺋﯿﺔاﻟﺘﻲ‬
‫اﻹﺣﺼﺎﺋﯿﺔ‬ ‫اﻻﺧﺘﺒﺎرات‬
‫اﻻﺧﺘﺒﺎرات‬ ‫ﻣﺠﻤﻮﻋﺔﻣﻦ‬
‫ﻣﻦ‬ ‫ﻋﻠﻰﻣﺠﻤﻮﻋﺔ‬ ‫ﻋﻠﻰ‬ ‫ﺑﻨﺎء‬
‫ﺑﻨﺎء‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫ﻟﻤﺪوﻧﺔ‬
‫اﻟﻤﺪوﻧﺔ‬
‫اﻟﻜﻠﻤﺎت ﻓﻲ‬
‫املدونة‬ ‫الكلامت يف‬ ‫ﻓﻲ ﻣﺪى‬
‫تالزم ﺗﻼزم‬ ‫اﻟﻜﻠﻤﺎت‬
‫ﺗﺤﺪﯾﺪ‬
‫مدى‬‫ﻓﻲﻓﻲ‬
‫ﻓﻲ‬ ‫ﺗﻼزم‬
‫ﻣﺤﻮري‬
‫حتديد‬
‫اﻟﻜﻠﻤﺎت‬
‫اﻟﻜﻠﻤﺎت‬ ‫ﺟﺪوليف‬‫ﻣﺪى‬
‫ﻣﺪىدور‬
‫حموري‬
‫ﺗﻼزم‬
‫ﺗﻼزم‬ ‫ﺗﺤﺪﯾﺪ‬
‫ﻟﮭﺎ‬
‫ﻣﺪى‬ ‫دور‬ ‫ﻓﻲ‬
‫واﻟﺘﻲ‬ ‫ﻣﺤﻮري‬
‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬‬
‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬هلا‬
‫ﺗﺤﺪﯾﺪ‬
‫ﺗﺤﺪﯾﺪ‬ ‫والتي‬
‫ﻣﺤﻮري ﻓﻲ‬
‫ﻓﻲ‬ ‫دور‬
‫الرياضية‪،‬‬
‫ﻣﺤﻮري‬ ‫واﻟﺘﻲ ﻟﮭﺎ‬
‫واﻟﻌﻼﻗﺎت‬
‫دور‬
‫دور‬ ‫والعالقات‬‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬‬
‫واﻟﺘﻲ ﻟﮭﺎ‬
‫ﻟﮭﺎ‬ ‫واﻟﺘﻲ‬ ‫واﻟﻌﻼﻗﺎت‬
‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬‬
‫اﻟﺮﯾﺎﺿﯿﺔ‪،‬‬ ‫ﻗﺎت‬
‫ﻼﻗﺎت‬
‫ﻣﻦ‬‫ﻣﻦ‬‫ﻋﺪدا‬
‫ﻋﺪدا‬ ‫‪4‬‬ ‫‪4‬‬ ‫ﺟﺪول‬ ‫وﯾﻮﺿﺢ‬
‫وﯾﻮﺿﺢ‬ ‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫اﻟﺴﯿﺎﻗﺎت‬
‫اﻟﺴﯿﺎﻗﺎت‬ ‫ﻓﻲ‬ ‫ﻓﻲ‬ ‫وﻗﺮﺑﮭﺎ‬
‫وﻗﺮﺑﮭﺎ‬ ‫رﺗﺒﺎطﮭﺎ‬
‫ارﺗﺒﺎطﮭﺎ‬
‫اﻹﺣﺼﺎﺋﯿﺔ اﻟﺘﻲ ﺗﺤﺪد درﺟﺔ‬‫درﺟﺔدرﺟﺔ‬
‫ﺗﺤﺪدﺗﺤﺪد‬
‫اﻻﺧﺘﺒﺎرات‬
‫درﺟﺔ‬ ‫اﻟﺘﻲاﻟﺘﻲ‬
‫ﺗﺤﺪد‬ ‫اﻹﺣﺼﺎﺋﯿﺔ‬
‫ﻣﻦ‬
‫اﻟﺘﻲ‬ ‫ﻣﺠﻤﻮﻋﺔ‬
‫اﻹﺣﺼﺎﺋﯿﺔ‬‫اﻻﺧﺘﺒﺎرات‬
‫اﻻﺧﺘﺒﺎراتﻋﻠﻰ‬ ‫ﻣﺠﻤﻮﻋﺔ ﻣﻦ‬
‫اﻟﻠﻐﻮﯾﺔ ﺑﻨﺎء‬
‫اﻻﺧﺘﺒﺎرات‬ ‫ﻣﻦ‬‫اﻟﻤﺪوﻧﺔ‬
‫ﻣﺠﻤﻮﻋﺔ‬‫ﻋﻠﻰﻋﻠﻰ‬ ‫ﺑﻨﺎء ﺑﻨﺎء‬
‫ﻋﻠﻰ‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫ﺑﻨﺎء‬ ‫ﻤﺪوﻧﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫ﺔﻧﺔ‬
‫التيأھﻢحتدد درجة ارتباطها وقرهبا‬‫وﻣﻦ‬
‫أھﻢ‬ ‫اإلحصائية‬
‫وﻣﻦ‬ ‫ﻣﺮاﺟﻌﮭﺎ‪.‬‬
‫ﻣﺮاﺟﻌﮭﺎ‪.‬‬ ‫االختبارات‬
‫اﻹﺣﺼﺎﺋﯿﺔ‬
‫ﺑﯿﺎن‬
‫ﺑﯿﺎن‬ ‫ﻣﻊ‬
‫ﻣﻊ‬ ‫جمموعة من‬
‫اﺳﺘﻌﻤﺎﻟﮭﺎ‬
‫اﺳﺘﻌﻤﺎﻟﮭﺎ‬ ‫ﻣﻦ‬
‫اﻟﺘﻲﯾﻜﺜﺮ‬
‫ﯾﻜﺜﺮ‬ ‫ﻣﺠﻤﻮﻋﺔعىل‬
‫اﻟﺘﻲ‬ ‫اللغوية بناء‬
‫اﻻرﺗﺒﺎط‬
‫اﻻرﺗﺒﺎط‬ ‫ﻗﯿﺎس‬‫ﻗﯿﺎس‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﺧﻮارزﻣﯿﺎت‬
‫وﯾﻮﺿﺢ ﺟﺪول ‪ 4‬ﻋﺪدا ﻣﻦ‬ ‫ﻋﺪدا ﻣﻦ‬
‫ﻣﻦ‬ ‫ﺟﺪول ‪4‬‬
‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬‬
‫ﻋﺪدا ﻣﻦ‬
‫ﻋﺪدا‬ ‫وﯾﻮﺿﺢ‬
‫اﻟﻠﻐﻮﯾﺔ‪4‬‬
‫ﺟﺪولﻣﺎ‪4‬‬
‫ﺟﺪول‬ ‫اﻟﺴﯿﺎﻗﺎت‬
‫وﯾﻮﺿﺢ‬
‫وﯾﻮﺿﺢ‬ ‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬ﻓﻲ‬
‫وﻗﺮﺑﮭﺎ‬
‫اﻟﻤﺨﺘﻠﻔﺔ‪،‬‬ ‫اﻟﺴﯿﺎﻗﺎت‬
‫ارﺗﺒﺎطﮭﺎ‬
‫اﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬ ‫وﻗﺮﺑﮭﺎ ﻓﻲ‬
‫اﻟﺴﯿﺎﻗﺎت‬
‫اﻟﺴﯿﺎﻗﺎت‬ ‫وﻗﺮﺑﮭﺎ ﻓﻲ‬
‫ﻓﻲ‬ ‫رﺗﺒﺎطﮭﺎ‬
‫وﻗﺮﺑﮭﺎ‬ ‫طﮭﺎ‬
‫طﮭﺎ‬
‫االرتباط‬ ‫قياس‬ ‫‪(Pecina,‬‬
‫خوارزميات‬
‫‪(Pecina,‬‬ ‫;‪2008‬‬
‫من‬ ‫عددا‬
‫;‪2008‬‬ ‫‪4‬‬‫ﯾﻠﻲ‪:‬‬
‫جدول‬
‫ﯾﻠﻲ‪:‬‬ ‫ﻣﺎ‬ ‫اﻟﺨﻮارزﻣﯿﺎت‬
‫ويوضح‬
‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫ﺗﻮظﯿﻒھﺬه‬
‫املختلفة‪،‬‬
‫ھﺬه‬ ‫ﺗﻮظﯿﻒ‬
‫اللغوية‬ ‫ﻋﻠﻰ‬
‫ﻋﻠﻰ‬ ‫اﻋﺘﻤﺪت‬
‫السياقات‬
‫اﻋﺘﻤﺪت‬ ‫يف‬ ‫اﻟﺘﻲ‬
‫اﻟﺘﻲ‬ ‫ﻟﺪراﺳﺎت‬
‫اﻟﺪراﺳﺎت‬
‫أھﻢﺑﯿﺎن ﻣﺮاﺟﻌﮭﺎ‪ .‬وﻣﻦ أھﻢ‬ ‫وﻣﻦ ﻣﻊ‬
‫أھﻢ‬ ‫ﻣﺮاﺟﻌﮭﺎ‪.‬‬
‫اﺳﺘﻌﻤﺎﻟﮭﺎ‬
‫وﻣﻦ أھﻢ‬
‫وﻣﻦ‬ ‫ﻣﺮاﺟﻌﮭﺎ‪.‬‬
‫ﻣﺮاﺟﻌﮭﺎ‪.‬‬ ‫ﺑﯿﺎنﺑﯿﺎن‬
‫اﻟﺘﻲ ﯾﻜﺜﺮ‬ ‫اﺳﺘﻌﻤﺎﻟﮭﺎ ﻣﻊ‬
‫اﻻرﺗﺒﺎط‬
‫ﺑﯿﺎن‬ ‫ﻣﻊ‬ ‫ﯾﻜﺜﺮ ﻗﯿﺎس‬
‫اﺳﺘﻌﻤﺎﻟﮭﺎ ﻣﻊ‬
‫اﺳﺘﻌﻤﺎﻟﮭﺎ‬ ‫اﻟﺘﻲاﻟﺘﻲ‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﯾﻜﺜﺮ‬
‫ﯾﻜﺜﺮ‬ ‫اﻻرﺗﺒﺎط‬
‫اﻟﺘﻲ‬ ‫اﻻرﺗﺒﺎط‬
‫اﻻرﺗﺒﺎط‬‫ﻗﯿﺎسﻗﯿﺎس‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﻗﯿﺎس‬ ‫زﻣﯿﺎت‬
‫زﻣﯿﺎت‬
‫‪.‬‬ ‫‪.Moirón,‬‬
‫‪Moirón,‬‬ ‫;‪2005‬‬
‫;‪2005‬‬ ‫‪Evert,‬‬
‫‪Evert,‬‬ ‫)‪2005‬‬‫)‪2005‬‬
‫;‪ 2008‬توظيف‬
‫‪(Pecina,‬‬ ‫اعتمدت عىل‬ ‫التيﻣﺎ‬
‫‪(Pecina,‬‬
‫ﯾﻠﻲ‪:‬‬ ‫الدراسات‬
‫;‪2008‬‬
‫اﻟﺨﻮارزﻣﯿﺎت‬
‫‪(Pecina,‬‬
‫‪(Pecina,‬‬ ‫;‪2008‬‬ ‫أهم‬
‫ھﺬه‬
‫;‪2008‬‬ ‫ومن‬
‫ﺗﻮظﯿﻒﯾﻠﻲ‪:‬‬
‫ﯾﻠﻲ‪:‬‬
‫ﯾﻠﻲ‪:‬‬ ‫مراجعها‪.‬‬
‫اﻟﺨﻮارزﻣﯿﺎت ﻣﺎ‬
‫ﻋﻠﻰﻣﺎ‬
‫ﻣﺎ‬ ‫اﻋﺘﻤﺪت‬‫اﻟﺘﻲھﺬهبيان‬
‫اﻟﺨﻮارزﻣﯿﺎت‬
‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫ھﺬهمع‬ ‫استعامهلا‬
‫ﺗﻮظﯿﻒ‬
‫ھﺬه‬‫اﻟﺪراﺳﺎت‬‫يكثرﻋﻠﻰ‬
‫ﺗﻮظﯿﻒ‬
‫ﺗﻮظﯿﻒ‬ ‫ﻋﻠﻰ‬
‫ﻋﻠﻰ‬ ‫التي‬
‫اﻋﺘﻤﺪت‬ ‫اﻟﺘﻲاﻟﺘﻲ‬
‫اﻋﺘﻤﺪت‬
‫اﻋﺘﻤﺪت‬ ‫ﺪراﺳﺎت‬
‫اﻟﺘﻲ‬ ‫ﺳﺎت‬
‫ﺳﺎت‬
‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫‪.Moirón,‬‬‫اﻟﻤﺮاﺟﻊ‬‫ييل‪2005;) :‬‬ ‫‪Evert,‬‬‫‪.‬‬‫‪Moirón,‬‬‫اﻻﺳﻢ‬ ‫;‪2005‬‬ ‫‪Evert,‬‬ ‫‪2005‬‬
‫‪.(Pecina, 2008; Moirón,‬‬
‫اﻟﺨﻮارزﻣﯿﺎت‬ ‫;‪2005‬‬ ‫اﻟﻤﺮاﺟﻊ‬
‫‪Evert,‬‬ ‫‪2005‬‬
‫‪(Church et al., 1991) T-score‬‬
‫)‪.2005‬‬
‫اخلوارزميات ما‬
‫اﻻﺳﻢ‬
‫‪.Moirón,‬‬
‫;‪Moirón, 2005‬‬ ‫هذه‬
‫‪2005; Evert,‬‬
‫‪Evert, 20‬‬ ‫‪2‬‬
‫𝒇𝒇 𝒇𝒇 𝒇𝒇‬ ‫𝒇𝒇‬ ‫𝒃𝒃𝒇𝒇 𝒚𝒚𝒇𝒇‬ ‫‪(Church et al., 1991) T-score‬‬
‫اﻟﺨﻮارزﻣﯿﺎت‬
‫اخلوارزمياتاﻟﺨﻮارزﻣﯿﺎت‬
‫اﻟﻤﺮاﺟﻊ‬‫اﻟﺨﻮارزﻣﯿﺎت‬
‫!𝒙𝒙𝒙𝒙‬
‫اﻟﺨﻮارزﻣﯿﺎت‬
‫𝑵𝑵!𝒙𝒙𝒙𝒙‬
‫𝑵𝑵‬ ‫اﻟﻤﺮاﺟﻊ‬
‫اﻻﺳﻢ‬ ‫اﻟﻤﺮاﺟﻊ‬
‫املراجع‬
‫اﻟﻤﺮاﺟﻊ‬
‫𝒃𝒃 𝒚𝒚‬
‫اﻻﺳﻢاﻻﺳﻢ‬
‫اﻻﺳﻢ‬
‫االسم‬
‫𝐱𝐱𝐱𝐱‬
‫‪(Church‬‬
‫‪𝒇𝒇 et‬‬ ‫‪al., 1991) T-score‬‬ ‫‪(Church‬‬ ‫)‪et al.,et1991‬‬ ‫‪T-score‬‬
‫𝒇𝒇‬ ‫𝐱𝐱𝐱𝐱𝒚𝒚𝒇𝒇‬ ‫‪(Church‬‬
‫‪(Church‬‬ ‫)‪al.,1991‬‬
‫‪et al.,‬‬ ‫)‪1991‬‬ ‫‪T-score‬‬
‫‪T-score‬‬
‫𝒃𝒃𝒃𝒃𝒇𝒇𝒇𝒇𝒚𝒚𝒚𝒚𝒇𝒇𝒇𝒇!𝒙𝒙𝒙𝒙𝒇𝒇𝒇𝒇!𝒙𝒙𝒙𝒙‬
‫𝒃𝒃𝒇𝒇 𝒚𝒚𝒇𝒇‬ ‫𝒃𝒃𝒇𝒇‬
‫!𝒙𝒙𝒙𝒙‬
‫𝑵𝑵‬ ‫𝑵𝑵‬
‫𝑵𝑵 !𝒙𝒙𝒙𝒙‬ ‫‪(Church‬‬
‫‪(Daille,‬‬ ‫‪et‬‬ ‫‪al.,‬‬
‫)‪1994‬‬ ‫)‪T-scoreInformation (MI‬‬
‫‪Mutual‬‬
‫𝒙𝒙𝒙𝒙𝒇𝒇‬ ‫𝑵𝑵‬
‫𝑵𝑵 𝒇𝒇‬
‫𝑵𝑵‬ ‫‪(Daille,‬‬
‫)‪1991‬‬ ‫)‪1994‬‬ ‫)‪Mutual Information (MI‬‬
‫𝐱𝐱𝐱𝐱‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫𝐱𝐱𝐱𝐱 𝒙𝒙𝒙𝒙𝐱𝐱𝐱𝐱 𝟐𝟐‬
‫𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫𝐱𝐱𝐱𝐱‬
‫𝒇𝒇𝒚𝒚𝒇𝒇𝒇𝒇𝒙𝒙 𝟐𝟐𝒇𝒇‬
‫𝑵𝑵 𝒙𝒙𝒙𝒙𝒇𝒇‬ ‫)‪(Daille, 1994‬‬‫𝒚𝒚 𝒙𝒙‬
‫𝑵𝑵 𝒙𝒙𝒙𝒙𝒇𝒇‬ ‫‪(Daille,‬‬
‫‪Mutual‬‬ ‫‪1994)1994) (MI)Mutual‬‬
‫‪Information‬‬
‫‪(Daille,‬‬ ‫‪Information‬‬
‫‪Mutual‬‬ ‫‪(MI)(MI‬‬
‫‪Information‬‬
‫𝟐𝟐𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍 𝟐𝟐𝒍𝒍𝒍𝒍𝒍𝒍‬‫𝒙𝒙𝒙𝒙𝒇𝒇𝒇𝒇 𝟑𝟑‬ ‫𝑵𝑵‬
‫𝑵𝑵𝒙𝒙𝒙𝒙‬ ‫‪(Daille,‬‬
‫‪(Daille,‬‬ ‫)‪1994)1994‬‬ ‫‪Mutual‬‬
‫‪MI3‬‬ ‫‪Mutual‬‬ ‫‪Information‬‬ ‫)‪(MI‬‬
‫𝒚𝒚𝒇𝒇 𝒙𝒙𝒇𝒇‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫𝑵𝑵𝟑𝟑‬
‫𝒇𝒇 𝒙𝒙𝒙𝒙𝒙𝒙𝒇𝒇‬
‫𝒇𝒇 𝒇𝒇𝑵𝑵𝒚𝒚𝟐𝟐𝟐𝟐‬
‫‪(Daille,‬‬ ‫)‪1994‬‬
‫)‪(Daille, 1994‬‬ ‫‪MI3‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫𝒚𝒚𝒚𝒚𝒇𝒇𝒙𝒙𝒙𝒙𝒇𝒇 𝒙𝒙𝒙𝒙‬
‫𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝟐𝟐‬
‫𝒇𝒇‬
‫𝒚𝒚𝒇𝒇 𝒙𝒙 𝟐𝟐‬ ‫)‪Information (MI‬‬
‫𝟑𝟑‬ ‫)‪(Daille, 1994‬‬ ‫𝟑𝟑 𝒚𝒚𝒇𝒇 𝒙𝒙𝟑𝟑𝒇𝒇‬ ‫‪(Daille,‬‬
‫‪MI3‬‬ ‫)‪1994)1994‬‬
‫‪(Daille,‬‬ ‫‪MI3 MI3‬‬
‫𝑵𝑵‬ ‫𝑵𝑵 𝟑𝟑 𝑵𝑵‬ ‫‪(Daille,‬‬ ‫)‪1994‬‬ ‫‪MI3‬‬
‫𝟐𝟐𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝒙𝒙𝒙𝒙‬
‫𝒍𝒍𝒍𝒍𝒍𝒍‪−‬‬
‫𝑴𝑴𝑴𝑴𝑴𝑴𝑴𝑴‬ ‫𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔‬
‫𝒙𝒙𝒙𝒙‬
‫𝒍𝒍𝒍𝒍𝒍𝒍×‬ ‫𝑵𝑵𝒙𝒙𝒙𝒙‬ ‫‪(Rychlý,‬‬
‫‪(Rychlý,‬‬ ‫)‪2008‬‬
‫)‪2008‬‬ ‫‪MI.log_F‬‬
‫‪MI.log_F‬‬
‫𝒚𝒚𝒇𝒇 𝒙𝒙𝒇𝒇‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍 𝟐𝟐‬
‫𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔 ‪−‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍×𝟐𝟐𝒇𝒇𝟐𝟐 𝒙𝒙𝒇𝒇‬
‫𝒙𝒙𝒙𝒙‬‫𝒙𝒙𝒙𝒙‬
‫𝒇𝒇 𝒙𝒙𝒇𝒇𝒚𝒚‬
‫)‪(Daille, 1994‬‬ ‫‪MI3‬‬
‫𝒙𝒙𝒙𝒙𝒇𝒇 𝒙𝒙𝒇𝒇‬
‫𝒚𝒚𝒚𝒚‬
‫‪(Rychlý,‬‬ ‫)‪2008‬‬ ‫‪(Rychlý,‬‬
‫‪(Rychlý,‬‬
‫‪(Rychlý,‬‬
‫‪MI.log_F‬‬ ‫)‪2008‬‬
‫)‪2008‬‬ ‫‪logDice‬‬
‫‪2008)2008) logDice‬‬
‫‪MI.log_F‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍 𝒙𝒙𝒙𝒙𝒍𝒍𝒍𝒍𝒍𝒍× 𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔 ‪𝑴𝑴𝑴𝑴 −‬‬ ‫𝟏𝟏𝟏𝟏= =‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝑴𝑴𝑴𝑴‬ ‫𝑴𝑴𝑴𝑴‪−‬‬
‫𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔‬ ‫‪𝟏𝟏𝟏𝟏+‬‬ ‫𝒈𝒈𝒍𝒍𝒍𝒍‪+‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍×‬ ‫𝑫𝑫 𝟐𝟐‬
‫𝒈𝒈𝒍𝒍𝒍𝒍‬
‫𝒙𝒙𝒙𝒙 𝑫𝑫 𝟐𝟐𝒙𝒙𝒙𝒙‬ ‫‪(Rychlý,‬‬ ‫‪(Rychlý,‬‬
‫)‪2008‬‬
‫‪(Rychlý,‬‬ ‫)‪2008‬‬ ‫‪MI.log_F‬‬
‫‪MI.log_F‬‬
‫‪MI.log_F‬‬
‫𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔‪𝑴𝑴𝑴𝑴 −−‬‬
‫𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔𝒔‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍×‬
‫𝒍𝒍𝒍𝒍𝒍𝒍×‬ ‫𝒙𝒙𝒙𝒙‬
‫𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐‬
‫𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐‬
‫=‬ ‫‪(Rychlý,‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍=‬
‫𝟏𝟏𝟏𝟏‬ ‫𝒈𝒈𝒍𝒍𝒍𝒍 ‪+‬‬
‫𝟏𝟏𝟏𝟏‬ ‫𝒈𝒈𝒍𝒍𝒍𝒍 ‪+‬‬ ‫)‪2008‬‬
‫𝟏𝟏𝟏𝟏 𝟐𝟐=‬ ‫𝟏𝟏𝟏𝟏 ‪+‬‬‫𝒈𝒈𝒍𝒍𝒍𝒍 𝟐𝟐‪𝒍𝒍𝒍𝒍𝒈𝒈+‬‬‫‪𝑫𝑫 logDice‬‬ ‫‪(Rychlý,‬‬ ‫‪2008)2008) logDice‬‬
‫‪(Rychlý,‬‬ ‫‪logDice‬‬
‫‪+ 𝒍𝒍𝒍𝒍𝒈𝒈𝟐𝟐(Rychlý,‬‬ ‫)‪2008)2008‬‬ ‫‪logDice‬‬
‫𝑫𝑫 𝟐𝟐𝒈𝒈𝒍𝒍𝒍𝒍 ‪𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍 = 𝟏𝟏𝟏𝟏 +‬‬ ‫𝒇𝒇𝒇𝒇𝟐𝟐‬ ‫‪𝑫𝑫 (Rychlý,‬‬ ‫‪logDice‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫==‬ ‫‪𝒇𝒇𝒇𝒇+‬‬ ‫𝒇𝒇𝒇𝒇‪+‬‬
‫𝟏𝟏𝟏𝟏‬ ‫𝒇𝒇𝒇𝒇‬ ‫𝑫𝑫𝟐𝟐‬
‫𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐‬ ‫𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐‬
‫𝟐𝟐𝒈𝒈𝒍𝒍𝒍𝒍 ‪= 𝟏𝟏𝟏𝟏 +‬‬ ‫𝟏𝟏𝟏𝟏 ‪= 𝟏𝟏𝟏𝟏=+‬‬ ‫𝒇𝒇𝒇𝒇𝒇𝒇𝟐𝟐 𝒈𝒈𝒍𝒍𝒍𝒍 𝒈𝒈𝒍𝒍𝒍𝒍‬ ‫‪(Dunning, 1993) Log-likelihood(L.‬‬
‫)‪Log-likelihood(L.LK‬‬
‫𝒇𝒇𝒇𝒇 ‪𝒇𝒇𝒇𝒇 +‬‬ ‫𝒈𝒈𝒍𝒍𝒍𝒍𝟐𝟐‪= 𝟏𝟏𝟏𝟏 ++‬‬ ‫𝒇𝒇𝒇𝒇 ‪𝒇𝒇𝒇𝒇𝟐𝟐𝟐𝟐+‬‬ ‫𝒊𝒊𝒊𝒊𝒇𝒇‬
‫𝒇𝒇𝒇𝒇‬ ‫)‪𝒇𝒇𝒇𝒇 (Dunning, 1993‬‬ ‫)‪Log-likelihood(L.LK‬‬
‫‪𝒇𝒇𝒇𝒇 𝒇𝒇++‬‬
‫)‪𝒇𝒇𝒇𝒇𝒊𝒊𝒊𝒊 (Dunning, 1993‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊 𝒊𝒊𝒊𝒊 𝒊𝒊𝒊𝒊 𝟐𝟐‪−𝟐𝟐−‬‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍‬
‫𝒇𝒇𝒇𝒇 𝒊𝒊𝒊𝒊‬

‫)‪(Dunning, 1993)𝒇𝒇𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊 Log-likelihood(L.LK‬‬ ‫‪(Dunning,‬‬ ‫)‪LK‬‬


‫)‪1993)1993) Log-likelihood(L.LK‬‬
‫𝒊𝒊𝒊𝒊𝒇𝒇‬ ‫‪(Dunning,‬‬
‫‪(Dunning,‬‬
‫اﻻرﺗﺒﺎط𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒇𝒇‬ ‫)‪1993‬‬ ‫)‪Log-likelihood(L.LK‬‬
‫)‪Log-likelihood(L.LK‬‬
‫𝟐𝟐‪−‬‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍 𝒊𝒊𝒊𝒊 𝒊𝒊𝒊𝒊‬ ‫𝟐𝟐‪−𝟐𝟐 −‬‬ ‫ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول𝒊𝒊𝒊𝒊‬
‫𝒊𝒊𝒊𝒊‬ ‫𝒍𝒍𝒍𝒍𝒍𝒍‬ ‫ﻣﻦﻣﻦ ﺧﻮارزﻣﯿﺎت ﻗﯿﺎس درﺟﺔ اﻻرﺗﺒﺎط ﻣﻊ 𝒍𝒍𝒍𝒍𝒍𝒍‬
‫ﻣﻊ‬
‫𝒇𝒇‬ ‫درﺟﺔ‬ ‫ﻗﯿﺎس‬ ‫ﺧﻮارزﻣﯿﺎت‬ ‫ﻟﻌﺪدﻟﻌﺪد‬
‫أﻣﺜﻠﺔأﻣﺜﻠﺔ‬
‫‪: :‬‬
‫𝒊𝒊𝒊𝒊𝒇𝒇‬ ‫ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول 𝟐𝟐‪−‬‬
‫𝒍𝒍𝒍𝒍𝒍𝒍𝒇𝒇𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊 𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊‬ ‫𝒇𝒇‬
‫جدول ‪ :4‬أمثلة لعدد من خوارزميات قياس درجة االرتباط مع مراجعها‪.‬‬
‫𝒊𝒊𝒊𝒊‬
‫𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒊𝒇𝒇‬
‫ﻓﻲ ﻣﻊ ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول‬‫اﻻرﺗﺒﺎطﻓﻲ‬
‫اﻻرﺗﺒﺎط‬
‫اﻻرﺗﺒﺎط‬ ‫ﺧﻮارزﻣﯿﺎت‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول‬
‫ﻗﯿﺎس‬ ‫ﺗﻄﺒﯿﻖ‬
‫ﺗﻄﺒﯿﻖ‬
‫اﻻرﺗﺒﺎط ﻣﻊ‬
‫ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول درﺟﺔ‬
‫ﺧﻮارزﻣﯿﺎت‬ ‫ﻗﯿﺎسإﻟﻰ‬
‫إﻟﻰ‬
‫درﺟﺔ‬
‫اﻻرﺗﺒﺎطﻣﻦ‬
‫ﻣﻊ‬ ‫ﻟﻌﺪد‬ ‫أﻣﺜﻠﺔ‬ ‫ﺗﮭﺪف‪:‬‬
‫ﺗﮭﺪف‬
‫درﺟﺔ‬
‫اﻟﺪراﺳﺔاﻟﺘﻲ‬
‫اﻟﺘﻲ‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﻗﯿﺎس‬
‫اﻟﺪراﺳﺔ‬
‫ﻟﻌﺪد ﻣﻦ‬
‫ﺧﻮارزﻣﯿﺎت‬
‫ﺗﺘﺒﻊ‬
‫ﺗﺘﺒﻊ‬
‫أﻣﺜﻠﺔﻣﻦ‬
‫ﻟﻌﺪد‬ ‫أن‪:‬‬
‫أﻣﺜﻠﺔ أن‬ ‫وﻣﻦ اﻟﺸﺎﺋﻊ‬
‫اﻟﺸﺎﺋﻊ‬
‫وﻣﻦ ‪::‬أﻣﺜﻠﺔ‬
‫ﻣﻊ ﻣﺮاﺟﻌﮭﺎ‪9.‬ﺟﺪول‬ ‫درﺟﺔ اﻻرﺗﺒﺎط‬ ‫ﻗﯿﺎس‬ ‫ﺧﻮارزﻣﯿﺎت‬ ‫ﻣﻦ‬ ‫ﻟﻌﺪد‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫ﻣﺮاﺣﻞ‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫ﻣﺮاﺣﻞ‬ ‫اﻟﺨﻄﻮاتﻓﻲﻓﻲ‬‫اﻟﺨﻄﻮات‬ ‫ﻣﻦ‬ ‫اﻻﺻﻄﻼﺣﯿﺔﻋﺪدا‬
‫ﻋﺪدا ﻣﻦ‬ ‫ﻟﻠﺘﺮاﻛﯿﺐاﻻﺻﻄﻼﺣﯿﺔ‬ ‫ﻟﻠﺘﺮاﻛﯿﺐ‬ ‫اﻵﻟﻲ‬
‫اﻵﻟﻲ‬ ‫ﻻﺳﺘﺨﺮاج‬
‫اﻻﺳﺘﺨﺮاج‬
‫ﺧﻮارزﻣﯿﺎت اﻻرﺗﺒﺎط ﻓﻲ‬ ‫ﺗﻄﺒﯿﻖﻓﻲ‬
‫اﻻرﺗﺒﺎط‬
‫ﻓﻲ‬ ‫إﻟﻰ‬ ‫ﺧﻮارزﻣﯿﺎت‬
‫اﻻرﺗﺒﺎط‬
‫ﺗﻤﺜﯿﻞﻓﻲ‬
‫اﻻرﺗﺒﺎط‬‫ﺗﮭﺪف‬
‫ﺻﺪﻗﺎ ً‬ ‫اﻟﺘﻲ‬
‫ﺧﻮارزﻣﯿﺎت‬ ‫ﺗﻄﺒﯿﻖ‬
‫اﻟﺪراﺳﺔ‬ ‫إﻟﻰ‬
‫ﺗﺘﺒﻊ‬
‫ﺗﻄﺒﯿﻖ‬ ‫ﺗﮭﺪف‬
‫أن‬
‫إﻟﻰ‬ ‫اﻟﺘﻲ‬
‫اﻟﺸﺎﺋﻊ‬
‫ﺗﮭﺪف‬ ‫اﻟﺪراﺳﺔ‬
‫وﻣﻦ‬
‫اﻟﺘﻲ‬ ‫ﺗﺘﺒﻊ‬
‫اﻟﺪراﺳﺔ‬ ‫أن‬
‫ﺗﺘﺒﻊ‬‫اﻟﺸﺎﺋﻊ‬
‫أن‬ ‫ﻣﻦ‬
‫ﻟﺸﺎﺋﻊ‬
‫اﻟﻤﺪوﻧﺔ‬ ‫ﺑﯿﺎﻧﺎت‬
‫اﻟﻤﺪوﻧﺔ‬ ‫ﺑﯿﺎﻧﺎت‬ ‫ﺗﻤﺜﯿﻞ‬ ‫‪-144-‬‬
‫ﻓﻲ‬
‫ﻓﻲ‬ ‫ﺧﻮارزﻣﯿﺎتﺎ ً‬
‫ﺻﺪﻗ‬ ‫وأﻛﺜﺮ‬
‫وأﻛﺜﺮ‬ ‫ﺗﻄﺒﯿﻖ‬
‫ﻋﻠﻤﯿﺔ‬
‫ﻋﻠﻤﯿﺔ‬ ‫إﻟﻰإﻟﻰ‬
‫ﻧﺘﺎﺋﺞ‬
‫ﻧﺘﺎﺋﺞ‬ ‫ﺗﮭﺪف‬
‫إﻟﻰ‬ ‫ﺗﻀﻤﻦاﻟﺘﻲ‬
‫اﻟﻮﺻﻮل‬
‫اﻟﻮﺻﻮل‬ ‫اﻟﺪراﺳﺔ‬
‫ﺗﻀﻤﻦ‬‫ﺣﺘﻰ‬ ‫ﺗﺘﺒﻊ‬
‫ﺣﺘﻰ‬ ‫أن‬ ‫اﻟﺸﺎﺋﻊ‬
‫ﻟﻤﺨﺘﻠﻔﺔ؛‬
‫اﻟﻤﺨﺘﻠﻔﺔ؛‬
‫اﻟﺨﻄﻮات ﻓﻲ ﻣﺮاﺣﻞ اﻟﻤﻌﺎﻟﺠﺔ‬ ‫اﻟﻤﻌﺎﻟﺠﺔ‬‫ﻣﺮاﺣﻞﻣﻦ‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬‫ﻋﺪدا‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫اﻟﺨﻄﻮات ﻓﻲ‬
‫اﻻﺻﻄﻼﺣﯿﺔ‬
‫ﻣﺮاﺣﻞ‬
‫ﻣﺮاﺣﻞ‬ ‫اﻟﺨﻄﻮات ﻓﻲ‬
‫ﻓﻲ‬ ‫ﻋﺪدا ﻣﻦ‬
‫ﻟﻠﺘﺮاﻛﯿﺐ‬
‫اﻟﺨﻄﻮات‬ ‫اﻻﺻﻄﻼﺣﯿﺔ‬
‫اﻵﻟﻲ‬
‫ﻋﺪداﯾﻤﻣﻦ‬
‫ﻣﻦ‬ ‫ﻋﺪدا‬ ‫اﻻﺳﺘﺨﺮاج‬
‫اﻻﺻﻄﻼﺣﯿﺔ‬
‫اﻻﺻﻄﻼﺣﯿﺔ‬ ‫ﻟﻠﺘﺮاﻛﯿﺐ‬ ‫اﻵﻟﻲاﻵﻟﻲ‬
‫ﻟﻠﺘﺮاﻛﯿﺐ‬
‫ﻟﻠﺘﺮاﻛﯿﺐ‬ ‫ﻻﺳﺘﺨﺮاج‬
‫اﻵﻟﻲ‬ ‫ﺨﺮاج‬
‫ﺨﺮاج‬
‫اﻟﺘﺎﻟﯿﺔ‪:‬‬ ‫اﻟﻘﺎﺋﻤﺔ‬
‫اﻟﺘﺎﻟﯿﺔ‪:‬‬ ‫اﻟﻘﺎﺋﻤﺔ‬ ‫ﻓﻲ‬
‫ﻓﻲ‬ ‫ﺗﻠﺨﯿﺼﮭﺎ‬
‫ﺗﻠﺨﯿﺼﮭﺎ‬ ‫ﻜﻦ‬
‫ﻜﻦ‬ ‫ﯾﻤ‬ ‫اﻟﺨﻄﻮات‬
‫اﻟﺨﻄﻮات‬ ‫ﻋﻠﯿﮭﺎ‪،‬وھﺬه‬
‫وھﺬه‬ ‫ﻋﻠﯿﮭﺎ‪،‬‬ ‫اﻟﻤﻌﺘﻤﺪة‬
‫اﻟﻤﻌﺘﻤﺪة‬ ‫ﻟﻠﻐﻮﯾﺔ‬
‫اﻟﻠﻐﻮﯾﺔ‬
‫ﺻﺪﻗﺎ ً‬
‫اﻟﻤﺪوﻧﺔﻓﻲ ﺗﻤﺜﯿﻞ ﺑﯿﺎﻧﺎت اﻟﻤﺪوﻧﺔ‬ ‫ﺑﯿﺎﻧﺎت‬
‫وأﻛﺜﺮ‬ ‫ﺗﻤﺜﯿﻞ‬
‫ﻋﻠﻤﯿﺔ‬
‫ﺑﯿﺎﻧﺎت اﻟﻤﺪوﻧﺔ‬ ‫ﻓﻲ‬
‫ﻧﺘﺎﺋﺞ‬
‫ﺗﻤﺜﯿﻞ ﺑﯿﺎﻧﺎت‬ ‫ً‬
‫ﻓﻲ ﺗﻤﺜﯿﻞ‬ ‫ﺎ‬ ‫ﺻﺪﻗ‬
‫إﻟﻰ‬ ‫ً‬ ‫وأﻛﺜﺮ‬
‫اﻟﻮﺻﻮل‬
‫ﺻﺪﻗﺎﺎ ًﻓﻲ‬
‫وأﻛﺜﺮ ﺻﺪﻗ‬‫ﻋﻠﻤﯿﺔ‬
‫ﺗﻀﻤﻦ‬
‫ﻋﻠﻤﯿﺔ وأﻛﺜﺮ‬‫ﻧﺘﺎﺋﺞ‬
‫ﺣﺘﻰ‬ ‫إﻟﻰ‬
‫ﻧﺘﺎﺋﺞ ﻋﻠﻤﯿﺔ‬ ‫اﻟﻮﺻﻮل‬
‫اﻟﻤﺨﺘﻠﻔﺔ؛‬
‫إﻟﻰ ﻧﺘﺎﺋﺞ‬
‫اﻟﻮﺻﻮل إﻟﻰ‬‫ﺗﻀﻤﻦ‬
‫ﺗﻀﻤﻦ اﻟﻮﺻﻮل‬ ‫ﺣﺘﻰ‬
‫ﺣﺘﻰ ﺗﻀﻤﻦ‬ ‫ﻤﺨﺘﻠﻔﺔ؛‬
‫ﻠﻔﺔ؛ ﺣﺘﻰ‬
‫ﻔﺔ؛‬
‫اﻟﻤﺪوﻧﺔ‬
‫ومن الشائع أن تتبع الدراسة التي هتدف إىل تطبيق خوارزميات االرتباط يف‬
‫االستخراج اآليل للرتاكيب االصطالحية عددا من اخلطوات يف مراحل املعاجلة‬
‫املختلفة؛ حتى تضمن الوصول إىل نتائج علمية وأكثر صدق ًا يف متثيل بيانات املدونة‬
‫اللغوية املعتمدة عليها‪ ،‬وهذه اخلطوات يمكن تلخيصها يف القائمة التالية‪:‬‬
‫Ÿ Ÿحتديد أنواع اخلوارزميات املستعملة يف نموذج االستخراج‪.‬‬
‫Ÿ Ÿحتديد نوع النص الذي ستطبق عليه عملية االستخراج‪ ،‬فقد تطبق اخلوارزميات‬
‫عىل النص األصيل جمردا من أي إضافات‪ ،‬أو قد تطبق عىل مستوى الرموز‬
‫اللغوية الرصفية والنحوية املرتبطة بنصوص املدونة‪.‬‬
‫Ÿ Ÿحتديد حد أدنى لدرجة شيوع املفردات املستعملة يف استخراج الرتاكيب‪.‬‬
‫Ÿ Ÿحتديد حد أدنى لدرجة االرتباط املقبولة وفقا للخوارزميات املستعملة‪.‬‬
‫Ÿ Ÿحساب درجة الشيوع العامة للمفردات والرتاكيب يف املدونة اللغوية‪.‬‬
‫Ÿ Ÿتطبيق خوارزميات االرتباط‪ ،‬ثم ترتيب النتائج وتصنيف الرتاكيب املستخرجة‬
‫يف جداول متعددة بحسب اخلوارزمية املستعملة يف استكشافها‪ ،‬وكذلك من‬
‫املفيد أن تفرز الرتاكيب يف قوائم منظمة بطريقة تصاعدية وفق ًا لدرجة االرتباط‬
‫املستخرجة من املدونة اللغوية‪.‬‬
‫Ÿ Ÿاملقارنة بني نتائج تطبيق خوارزميات االرتباط‪ ،‬وتقييمها من خالل حتديد‬
‫أفضلها أدا ًء يف مهمة استخراج الرتاكيب املستهدفة(((‪.‬‬
‫ومن الطرق الشائعة األخرى‪ ،‬توظيف عدد من األنامط والقوالب الرصفية‬
‫والنحوية للغة يف استخراج أنواع خمتلفة من الرتاكيب بنا ًء عىل القوالب املعدة مسبق ًا‪،‬‬
‫ومن أشهر الرتاكيب التي يمكن استعامهلا كقوالب يف استخراج الرتاكيب االصطالحية‬
‫يف اللغة العربية ما ييل‪(:‬مضاف ‪+‬مضاف إليه‪ ،‬فعل‪ +‬فاعل‪ ،‬موصوف ‪ +‬صفة) وغريها‬
‫الكثري من أنامط اجلمل التي قد تأيت فيها املتالزمات اللفظية‪ ،‬ومن الدراسات التي‬

‫‪ -1‬يمكن الرجوع لدراسة )‪ )Kyto and Ludeling, 2008‬ملزيد من التفاصيل حول هذ اخلطوات وطريقة تطبيقها يف‬
‫نامذج االستخراج اآليل للرتاكيب االصطالحية‪.‬‬

‫‪-145-‬‬
‫استعملت هذه الطريقة يف استخراج املتالزمات اللفظية‪Castagnoli et al. ,2014) :‬‬
‫;‪ )Seretan,2011‬وغريها‪.‬‬
‫من جهة أخرى‪ ،‬اجتهت بعض األبحاث يف معاجلة اللغات إىل توظيف بعض التقنيات‬
‫املستعلمة يف علوم تعلم اآللة والتعلم العميق وما يتصل هبا يف االستخراج والتعرف‬
‫اآليل عىل الرتاكيب االصطالحية‪ ،‬ومن أمثلة هذه الطرق ما يعرف باستعامل خوارزميات‬
‫التصنيف التي تعتمد عىل نامذج التشابه الداليل ‪ ،Semantic Similarity‬وتفيد هذه‬
‫الطريقة كثري ًا يف استكشاف الرتاكيب االصطالحية قليلة الشفافية‪ ،‬أو بعبارة أخرى‪،‬‬
‫الرتاكيب التي غلب عىل معناها االستعامل الكيل املجازي الذي ال عالقة له باملعنى‬
‫احلريف للمفردات التي يتكون منها‪ .‬ويقوم استعامل هذه اخلوارزميات عىل فرضية مفادها‬
‫أن هناك تشاهب ًا داللي ًا يف التمثيل احلاسويب الداليل بني الرتاكيب االصطالحية وبعض‬
‫الكلامت املفردة املرادفة ملعناها االصطالحي‪ ،‬فإذا أظهرت نتائج خوارزمية التصنيف‬
‫تشاهب ًا داللي ًا بني عدد من الرتاكيب والكلامت املفردة املرادفة هلا‪ ،‬فحينئذ يمكن استخراج‬
‫هذه الرتاكيب وإضافتها لقوائم الرتاكيب االصطالحية‪ ،‬ويمكن إيضاح هذه املفهوم‬
‫بمثال للرتكيب االصطالحي الشائع يف اللغة العربية «انتقل إىل رمحة اهلل»‪ ،‬والذي قد‬
‫يتشابه داللي ًا مع بعض الكلامت املفردة ككلمتي «تويف» أو «مات»‪.‬‬
‫وكذلك قد تستعمل خوارزميات تعلم اآللة املتعلقة بالتشابه الداليل لتحديد‬
‫مستوى الشفافية أو مدى االستعامل االصطالحي للرتكيب؛ وذلك من خالل مقارنة‬
‫نتائج التشابه الداليل بني معاين الرتكيب االصطالحي ومعاين الكلامت املكونة له يف‬
‫سياقات لغوية متفرقة‪ ،‬وكلام كان معنى الرتكيب بعيدا عن معاين الكلامت املكونة له‬
‫كان أقل شفافية )‪.)Katz and Giesbrecht, 2006‬‬
‫ومن أهم رشوط استعامل هذه الطريقة توفر معاجم حاسوبية موسومة برموز ِداللية‬
‫للمفردات والرتاكيب االصطالحية؛ لتتمكن خوارزميات تعلم اآللة من التدرب عليها‬
‫حتى تصل إىل دقة عالية يف مهمة تصنيف العبارات واملفردات إىل جمموعات متشاهبة‬
‫داللي ًا‪ ،‬ومن أمثلة الدراسات التي اعتمدت هذه الطريقة‪Reddy et al. 2011; :‬‬
‫‪ Farahmand and Henderson 2016; Riedl and Biemann, 2015‬واجتهت‬
‫جمموعة من الدراسات األخرى يف هذا املجال إىل اعتامد املنهج اهلجني أو املتكامل يف‬

‫‪-146-‬‬
‫استخراج الرتاكيب االصطالحية آليا‪ ،‬والذي هيدف إىل االستفادة من مميزات عدد من‬
‫الطرق املختلفة‪ ،‬وحياول قدر اإلمكان التقليل من مشاكل االعتامد عىل منهج أو طريقة‬
‫واحدة‪ ،‬وهذا املنهج من أكثر املناهج استعامالً يف أدبيات معاجلة اللغات‪ ،‬وخاصة يف ما‬
‫يتعلق باستكشاف الرتاكيب االصطالحية؛ وذلك ألهنا ظاهرة لغوية معقدة ومتشعبة‪،‬‬
‫فمن األفضل إذا أردنا الوصول إىل نتائج أكثر دقة يف املعاجلة احلاسوبية هلا‪ ،‬أن نُوظف يف‬
‫تصميم نامذج االستخراج كل التقنيات والطرق املتاحة‪ .‬وكذلك من فوائد اعتامد هذا‬
‫املنهج أنه يساعد عىل مراعاة اخلصائص اللغوية للرتاكيب املختلفة؛ وذلك بتخصيص‬
‫كل نوع من الرتاكيب بطريقة معينة تكون هي األنسب خلصائصه واألكثر فائدة يف‬
‫معاجلته احلاسوبية‪.‬‬
‫ومن األمثلة عىل دراسات استخراج الرتاكيب االصطالحية يف اللغة العربية‪،‬‬
‫دراسة)‪ Attia et al. (2010‬والتي طبقت فيها ثالث طرق الستخراج الرتاكيب‬
‫االصطالحية آلي ًا باالعتامد عىل عدد من التقنيات اإلحصائية واللغوية‪ .‬الطريقة األوىل‬
‫يف هذه الدراسة كانت متأثرة بدراسة )‪ Zarrieß and Kuhn (2009‬وكانت تستهدف‬
‫استخراج الرتاكيب االصطالحية قليلة الشفافية‪ ،‬وذلك من خالل ترمجة عناوين‬
‫موسوعة ويكبيديا العربية إىل عدد من اللغات األجنبية وبعد ذلك وبناء عىل نتائج‬
‫الرتمجة ُيصنف العنوان ‪-‬الذي تكون ترمجته كلمة مفردة يف إحدى اللغات املقابلة‪-‬‬
‫عبارة اصطالحية؛ وذلك بناء عىل الفرضية التي تدعي أن الرتكيب االصطالحي تكون‬
‫ترمجته يف اللغات األخرى غالب ًا «كلمة مفردة»‪ ،‬ويوضح جدول ‪ 5‬عدد ًا من الرتاكيب‬
‫املستخرجة باستعامل هذه الطريقة مع ترمجتها إىل اإلنجليزية‪.‬‬
‫الرتمجة‬ ‫العبارة االصطالحية‬
‫‪Anaemia‬‬ ‫فقر الدم‬
‫‪Colitis‬‬ ‫التهاب القولون‬
‫‪Wallpaper‬‬ ‫ورق احلائط‬
‫‪Cockpit‬‬ ‫قمرة القيادة‬
‫‪Teamwork‬‬ ‫فريق عمل‬

‫جدول ‪ :5‬نامذج من العبارات املستخرجة باستعامل طريقة الرتمجة واملقارنة إىل اللغات األجنبية‪.‬‬

‫‪-147-‬‬
‫أما الطريقة الثانية‪ ،‬فتبع ًا لدراسة ‪ (2008) Vintar and Fiser‬استعمل الباحث‬
‫الرتمجة الثنائية بني العربية واالنجليزية كوسيلة الستكشاف تراكيب اصطالحية‬
‫جديدة يف اللغة العربية‪ ،‬فبناء عىل افرتاض أن العبارة االصطالحية يف لغة ما قد تكون‬
‫كذلك عندما ترتجم إىل لغة أخرى‪ ،‬ترمجت الدراسة الرتاكيب االصطالحية املصنفة‬
‫يف املعجم احلاسويب الداليل شبكة الكلامت )‪ Princeton WordNet2(1) (PWN‬إىل‬
‫اللغة العربية‪ ،‬وهبذه الطريقة متكن الباحث من استخراج أكثر من ‪ 13‬ألف عبارة‬
‫اصطالحية‪ .‬ويف الطريقة الثالثة استعمل الباحث املنهج اإلحصائي من خالل االعتامد‬
‫عىل تطبيق نموذج استخراج آيل يوظف عددا من خوارزميات قياس درجة االرتباط‪،‬‬
‫وقد اعتمدت الدراسة عىل استخراج الرتاكيب االصطالحية هبذه الطريقة من مدونة‬
‫عربية تتكون من أكثر من ‪ 848‬مليون كلمة(((‪.‬‬
‫ويف دراسة أخرى اقرتح (‪ AlSabbagh et al., (2014‬طريقة الستخراج عدد‬
‫من الرتاكيب الفعلية يف اللغة العربية والتي متاثل معاين األفعال الناقصة يف اإلنجليزية‬
‫‪ ،modal verbs‬وقد طبق البحث املنهج اإلحصائي اآليل يف استخراج الرتاكيب‬
‫املستهدفة‪ ،‬وطبق نموذج االستخراج عىل عدد من املدونات العربية يصل عدد كلامهتا‬
‫إىل أكثر من ‪ 35‬مليون كلمة‪ .‬وقدم ‪ (2016) Alghamdi and Atwell‬مقارنة لتقييم‬
‫استعامل عدد من خوارزميات االرتباط يف استخراج املتالزمات اللفظية يف اللغة‬
‫العربية‪ ،‬وكذلك قامت الدراسة بقياس تأثري عامل شيوع الكلامت املستعملة عىل أداء‬
‫خوارزميات االرتباط‪ ،‬وأظهرت نتائج هذه الدراسة أن خوارزمية ‪ MI.log_f‬لالرتباط‬
‫كانت األفضل أداء يف االستخراج اآليل للمتالزمات اللفظية‪ ،‬وكذلك بينت النتائج‬
‫حتسن ًا ملحوظ ًا ألداء هذه الطريقة عندما تنفذ عىل مستوى الكلامت األكثر شيوع ًا يف‬
‫املدونة اللغوية‪.‬‬
‫والتزال اللغة العربية يف حاجة ملحة إىل مزيد من الدراسات التطبيقية يف هذا‬
‫املجال‪ ،‬تُوظف فيها أحدث الطرق احلاسوبية الستخراج الرتاكيب االصطالحية‬
‫من املدونات اللغوية الضخمة؛ وذلك لبناء مصادر لغوية شاملة تعزز من أداء مهام‬

‫‪ -1‬رابط املعجم‪.http://wordnet.princeton.edu :‬‬


‫‪2- http://www.ldc.upenn.edu/Catalog/CatalogEntry.jsp? catalogId=LDC2009T30‬‬

‫‪-148-‬‬
‫معاجلة اللغات آلي ًا‪ .‬وأخريا‪ ،‬نؤكد هنا أن ما ُقدِّ م يف هذا اجلزء من استعراض رسيع‬
‫ملهمة استخراج الرتاكيب االصطالحية ومراجعة لبعض الدراسات املتصلة هبا ما هو‬
‫إال نبذة خمترصة عن جمال بحثي واسع تعددت فيه األبحاث وتداخلت مع عدد من‬
‫العلوم اللغوية واحلاسوبية‪ ،‬كعلم الداللة وحتليل اخلطاب وعلوم التنقيب عن البيانات‬
‫والتحليل اآليل للنصوص وغريها كام هي طبيعة أغلب الدراسات البينية يف اللسانيات‬
‫احلاسوبية‪.‬‬

‫‪ 3.2‬مهمة التعرف اآليل عىل الرتاكيب االصطالحية‬


‫ُت َعدُّ مهمة التعرف اآليل عىل الرتاكيب االصطالحية ‪ MWE Identification‬جزء ًا‬
‫مه ًام من أغلب تطبيقات معاجلة اللغات؛ وذلك ملا تُشكله من أمهية قصوى يف حتسني‬
‫مستوى جودة ودقة املخرجات النهائية ملهام التحليل اللغوي اآليل املختلفة‪ ،‬فعىل سبيل‬
‫املثال‪ ،‬يف كثري من أنظمة معاجلة اللغات والرتمجة اآللية غالب ًا ما تتضمن املراحل األولية‬
‫ملعاجلة النص نوع ًا من أنواع التعرف اآليل عىل الرتاكيب االصطالحية؛ وذلك ألمهية‬
‫ختصيص هذا النوع من الرتاكيب بمعاجلة حاسوبية خاصة تقلل من تأثريها عىل درجة‬
‫الغموض اللغوي يف املخرجات النهائية هلذه األنظمة‪.‬‬
‫وكام أوضحنا يف القسم الثالث من هذا الفصل وخاصة من خالل الشكل رقم ‪ 5‬أن‬
‫ال وصلة دائمة بني مهمتي االستخراج والتعرف اآليل‪ ،‬فنتائج االستخراج‬ ‫هناك تداخ ً‬
‫اآليل تُسهم يف حتسني عمل تطبيقات التعرف اآليل والعكس صحيح‪ ،‬وللتفريق بينهام‬
‫يمكن القول أن خمرجات التعرف اآليل غالب ًا ما تكون عبارة عن إضافة جمموعة من‬
‫الرموز اخلاصة للرتاكيب االصطالحية املتعارف عليها يف النص املعالج حاسوبي ًا‪،‬‬
‫ولذلك تعد تطبيقات التعرف اآليل نوعا من أدوات الرتميز اللغوية اآللية اخلاصة هبذا‬
‫النوع من الرتاكيب؛ ألن مهمتها تركز عىل تصميم خوارزميات إلضافة عالمات يمكن‬
‫متييزها عن باقي الرتاكيب اللغوية‪.‬‬
‫ويوضح شكل ‪ 7‬نموذج ًا مفرتض ًا ألحد خمرجات برامج التعرف اآليل حيث يظهر‬
‫النص موسوم ًا بعالمات للرتاكيب االصطالحية‪ .‬ومن املتعارف عليه يف هذا املجال‬
‫أن برامج الرتميز اللغوي اآليل تكون خمرجاهتا عىل قسمني‪ :‬الرتميز النيص والرتميز‬
‫املستقل‪ ،‬ففي النوع األول تكون الرموز مصاحبة للنص األصيل‪ ،‬أما النوع الثاين فتكون‬

‫‪-149-‬‬
‫الرموز فيه مستقلة يف ملفات خاصة هبا ومصحوبة بأرقام تشري إىل مواضع هذه الرموز‬
‫يف النصوص األصلية‪ ،‬ولكل نوع أماكن حيسن استعامله فيها بحسب التطبيق املستهدف‬
‫من قبل املرمز اآليل‪.‬‬
‫وهو يعلم ّ‬
‫أن‬
‫_أكل عليه الدهر ورشب_‬ ‫_ ُيلقي له باالً_‬ ‫من املؤكد أنه لن‬
‫شخص ًا كهذا‬
‫‪MWE‬‬ ‫‪MWE‬‬
‫_شاة ال يرضها السلخ بعد مماهتا_‬ ‫وربام اعتربه‬ ‫_والرضب فيه حرام_‬
‫‪MWE‬‬ ‫‪MWE‬‬

‫‪_:7‬مثال ألحد خمرجات التعرف اآليل عىل الرتاكيب االصطالحية باستعامل الرتميز النيص‪.‬‬
‫ﺣﺮام‬
‫الشكل‬
‫‪MWE‬‬ ‫‪MWE‬‬
‫أداء‬ ‫حتسني‬
‫اﻟﻨﺼﻲ‪.‬‬ ‫حموري ًا يف‬
‫اﻟﺘﺮﻣﯿﺰ‬ ‫عام ً‬
‫ال‬
‫ﺑﺎﺳﺘﻌﻤﺎل‬ ‫االصطالحية‬
‫اﻻﺻﻄﻼﺣﯿﺔ‬ ‫للرتاكيب‬
‫اﻟﺘﺮاﻛﯿﺐ‬ ‫احلاسوبيةاﻵﻟﻲ ﻋﻠﻰ‬ ‫ﻷﺣﺪاملعاجم‬
‫ﻣﺨﺮﺟﺎت اﻟﺘﻌﺮف‬ ‫توفر‬
‫ويعتربﻣﺜﺎل‬
‫ﺷﻜﻞ ‪:7‬‬

‫بسهولة‬
‫ﺗﺤﺴﯿﻦ‬ ‫ﻣﺤﻮرﯾﺎ ً‬
‫تتعرفﻓﻲ‬ ‫اﻻﺻﻄﻼﺣﯿﺔ ﻋﺎﻣﻼً‬
‫خوارزمية‬ ‫حيث يمكن بناء‬ ‫للتعرف اآليل‪،‬‬
‫ﻟﻠﺘﺮاﻛﯿﺐ‬ ‫املصممة‬
‫اﻟﺤﺎﺳﻮﺑﯿﺔ‬ ‫احلاسوبية‬
‫اﻟﻤﻌﺎﺟﻢ‬ ‫النامذج ﺗﻮﻓﺮ‬
‫وﯾﻌﺘﺒﺮ‬
‫ﺗﺘﻌﺮف‬ ‫ﺧﻮارزﻣﯿﺔ‬
‫مسبق ًا عن‬ ‫يف ﺑﻨﺎء‬
‫معجم ُمعد‬ ‫ﯾﻤﻜﻦ‬ ‫االصطالحيةﺣﯿﺚ‬
‫املخزنة‬ ‫ﻟﻠﺘﻌﺮف اﻵﻟﻲ‪،‬‬ ‫اﻟﻤﺼﻤﻤﺔ‬
‫للرتاكيب‬ ‫اﻟﺤﺎﺳﻮﺑﯿﺔ املامثلة‬ ‫عىلاﻟﻨﻤﺎذج‬
‫الرتاكيب اجلديدة‬ ‫أداء‬
‫ﺑﺴﮭﻮﻟﺔ ﻋﻠﻰ اﻟﺘﺮاﻛﯿﺐ اﻟﺠﺪﯾﺪة اﻟﻤﻤﺎﺛﻠﺔ ﻟﻠﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ اﻟﻤﺨﺰﻧﺔ ﻓﻲ ﻣﻌﺠﻢ ُﻣﻌﺪ‬
‫طريق البحث يف النص املعالج عن تراكيب مماثلة ملدخالت املعجم احلاسويب املستعمل‬
‫ﻣﺴﺒﻘﺎ ً ﻋﻦ طﺮﯾﻖ اﻟﺒﺤﺚ ﻓﻲ اﻟﻨﺺ اﻟﻤﻌﺎﻟﺞ ﻋﻦ ﺗﺮاﻛﯿﺐ ﻣﻤﺎﺛﻠﺔ ﻟﻤﺪﺧﻼت اﻟﻤﻌﺠﻢ‬
‫التعرفاﻟﺘﻲ‬ ‫تتكون ‪8‬منهاأھﻢبرامج‬
‫اﻟﻤﺮاﺣﻞ‬ ‫التي ﺷﻜﻞ‬
‫وﯾﻮﺿﺢ‬‫املراحل‬ ‫اﻟﺘﻌﺮف‪ 8‬أهم‬
‫اﻵﻟﻲ‪،‬‬ ‫ويوضح شكل‬
‫ﻓﻲ ﻣﮭﻤﺔ‬ ‫اآليل‪،‬‬ ‫اﻟﺤﺎﺳﻮﺑﻲ التعرف‬
‫اﻟﻤﺴﺘﻌﻤﻞ‬ ‫يف مهمة‬
‫تشتمل أن‬
‫اآليلﻣﻼﺣﻈﺔ‬ ‫التعرف‬
‫ﯾﻤﻜﻦ‬ ‫مهمةﺣﯿﺚ‬ ‫اﻟﺘﺮاﻛﯿﺐمالحظة أن‬
‫اﻻﺻﻄﻼﺣﯿﺔ‪،‬‬ ‫حيث يمكن‬ ‫االصطالحية‪،‬ﻋﻠﻰ‬
‫الرتاكيباﻟﺘﻌﺮف اﻵﻟﻲ‬ ‫اآليل عىل‬
‫ﻣﻨﮭﺎ ﺑﺮاﻣﺞ‬ ‫ﺗﺘﻜﻮن‬
‫املتنوعةﻣﻦ‬ ‫املصادر اللغوية‬
‫وﺗﺴﺘﻔﯿﺪ ﻛﺬﻟﻚ‬ ‫ﻣﻌﺎﻟﺠﺔمنﺣﺎﺳﻮﺑﯿﺔ‬
‫ﻋﻤﻠﯿﺎتكذلك‬
‫حاسوبيةﻣﻦوتستفيد‬
‫ﻋﻠﻰ ﻋﺪد‬‫معاجلة‬
‫ﺗﺸﺘﻤﻞ‬ ‫عمليات‬
‫من اﻵﻟﻲ‬ ‫عىل عدد‬
‫اﻟﺘﻌﺮف‬ ‫ﻣﮭﻤﺔ‬
‫ﺑﺎﻟﺘﺮاﻛﯿﺐ اﻟﻤﺮاد اﻟﺘﻌﺮف ﻋﻠﯿﮭﺎ‪.‬‬
‫اﻟﺼﻠﺔعليها‪.‬‬ ‫املرادذات‬
‫التعرف‬ ‫اﻟﻤﺘﻨﻮﻋﺔ‬ ‫اﻟﻠﻐﻮﯾﺔ‬
‫بالرتاكيب‬ ‫الصلة‬ ‫اﻟﻤﺼﺎدر‬
‫ذات‬

‫شكل ‪ :8‬املكونات األساسية ملهمة التعرف اآليل عىل الرتاكيب االصطالحية‪.‬‬


‫ﺷﻜﻞ ‪ :8‬اﻟﻤﻜﻮﻧﺎت اﻷﺳﺎﺳﯿﺔ ﻟﻤﮭﻤﺔ اﻟﺘﻌﺮف اﻵﻟﻲ ﻋﻠﻰ اﻟﺘﺮاﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ‪.‬‬

‫و ﻧﺆﻛﺪ ھﻨﺎ ﻣﺎ ُذﻛﺮ ﻓﻲ ﺷﺮح اﻟﻄﺮق اﻟﻤﺴﺘﻌﻤﻠﺔ ﻓﻲ اﻻﺳﺘﺨﺮاج اﻵﻟﻲ ﻟﻠﺘﺮاﻛﯿﺐ‪ ،‬أن‬
‫‪-150-‬‬
‫ﻛﻞ اﻟﺘﻘﻨﯿﺎت وﻣﻨﺎھﺞ اﻟﺒﺤﺚ اﻟﻤﺴﺘﻌﻤﻠﺔ ﻓﻲ‬ ‫اﻟﺪراﺳﺎت ﻓﻲ ھﺬا اﻟﻤﺠﺎل اﺳﺘﻔﺎدت ﻛﺬﻟﻚ ﻣﻦ‬
‫ﻣﮭﺎم ﻣﻌﺎﻟﺠﺔ اﻟﻠﻐﺎت‪ ،‬ووﻓﻘﺎ ً ﻟﺬﻟﻚ ﺗﻨﻮﻋﺖ اﻟﻤﻨﺎھﺞ اﻟﻤﻌﺘﻤﺪة ﻓﻲ اﻟﺘﻄﺒﯿﻘﺎت اﻟﻤﺼﻤﻤﺔ‬
‫و نؤكد هنا ما ُذكر يف رشح الطرق املستعملة يف االستخراج اآليل للرتاكيب‪ ،‬أن‬
‫الدراسات يف هذا املجال استفادت كذلك من كل التقنيات ومناهج البحث املستعملة‬
‫يف مهام معاجلة اللغات‪ ،‬ووفق ًا لذلك تنوعت املناهج املعتمدة يف التطبيقات املصممة‬
‫للتعرف اآليل‪ ،‬فمنها ما يعتمد الطرق التقليدية القائمة عىل كتابة قواعد لغوية آلية‬
‫للتعرف عىل بعض أنواع الرتاكيب‪ ،‬ومنها ما يوظف قدرات احلاسوب الفائقة يف البحث‬
‫واملقارنة فيعتمد عىل املعاجم احلاسوبية املعدة مسبق ًا يف التعرف اآليل‪ ،‬ومنها ما يوظف‬
‫جمموعة من خوارزميات تعلم اآللة أو التعلم العميق يف حتسني مهمة التعرف اآليل‬
‫وتوسيع نطاق الرتاكيب التي يمكن التعرف عليها دون إرشاف أو استعانة بمصادر‬
‫لغوية معدة مسبق ًا‪.‬‬
‫من أقدم الطرق استعامال يف هذا املجال ما يعرف بالطرق املعتمدة عىل القواعد‬
‫اللغوية املحوسبة حيث يستفاد فيها من اخلصائص اللغوية للرتاكيب املستهدفة يف‬
‫بناء قواعد لغوية آلية متكن الربنامج من التعرف عىل الرتاكيب املوافقة للقاعدة املربجمة‬
‫مسبق ًا‪ ،‬وتتضمن يف الغالب برامج التعرف املعتمدة عىل القواعد املراحل املعتادة يف‬
‫املعاجلة اآللية للنص‪ ،‬كتقسيم الكلامت إىل أصغر وحدات رصفية وإرجاع املشتقات إىل‬
‫أصوهلا وتزويد النص بالرموز اخلاصة بأقسام الكالم والعالقات النحوية بناء عىل نتائج‬
‫التحليل اآليل‪ ،‬وبعد ذلك يكون تطبيق خوارزميات التعرف املعتمدة عىل مقارنة النص‬
‫املعالج بقوالب القواعد املخزنة يف الربنامج‪ ،‬ومن أهم الدراسات التي تأثرت هبذه‬
‫الطرق يف التعرف اآليل عىل الرتاكيب اللغوية دراسة‪2013) Ghoneim and Diab‬‬
‫) التي وظفت عددا من تقنيات التعرف عىل الرتاكيب يف اللغة اإلنجليزية والعربية‬
‫لتحسني نتائج نظام إحصائي للرتمجة اآللية بني اللغتني وقد أظهرت نتائج هذه الدراسة‬
‫تطور ًا ملحوظ ًا عند املقارنة بني نتائج الرتمجة قبل وبعد دمج الرتاكيب االصطالحية‬
‫املتعرف عليها يف نظام املرتجم اآليل‪ .‬لكن من املهم هنا التنبيه عىل أن من أبرز عيوب‬
‫هذه الطرق صعوبة تعاملها مع الرتاكيب املتغرية رصفي ًا أو نحوي ًا‪ ،‬وكذلك صعوبة‬
‫االستفادة منها يف معاجلة الرتاكيب غري املتصلة والتي قد تتنوع فيها الكلامت الفاصلة‬
‫بني أجزاءها‪ ،‬وهذا النوع من الرتاكيب ال يمكن التعرف عليه آليا بمجرد استعامل‬
‫خوارزميات البحث واملطابقة أو التقنيات املعتمدة عىل قواعد لغوية ثابتة‪.‬‬

‫‪-151-‬‬
‫ومن الطرق األخرى املعتمدة عىل التصنيف املبني عىل تعلم اآللة يف التعرف اآليل‪،‬‬
‫طريقة متييز املعاين املختلفة للرتاكيب ‪ ، Sense Disambiguation Method‬والتي‬
‫تستعمل فيها خوارزمية التعرف اآليل عددا من التقنيات اإلحصائية الستخراج جمموعة‬
‫من املعلومات الداللية عن استعامل الرتكيب يف سياقات لغوية خمتلفة‪ ،‬ومن خالل هذه‬
‫املعلومات تُصنف الرتاكيب املستهدفة يف املعاجلة إىل عدة جمموعات بناء عىل املعلومات‬
‫اإلحصائية عن استعامالهتا املختلفة‪ ،‬ومن ثم تظهر يف النتائج الرتاكيب االصطالحية‬
‫يف جمموعات مستقلة متشاهبة داللي ًا وفق ًا ملعلومات وسياق استعامهلا‪ ،‬ويتم الرتكيز يف‬
‫هذه الطرق غالب ًا عىل التعرف عىل الرتاكيب قليلة الشفافية أو بعبارة أخرى الرتاكيب‬
‫املستعملة غالب ًا يف معانيها املجازية‪ .‬فعىل سبيل املثال قدم ‪(2008) Hashimoto and‬‬
‫‪ Kawahara‬مقرتح ًا لنظام آيل مبني عىل عدد من خوارزميات تعلم اآللة يمكنه التعرف‬
‫اآليل والتفريق بني االستعامالت احلقيقية واملجازية لعدد من الرتاكيب االصطالحية يف‬
‫اللغة اليابانية‪ .‬وتتطلب هذه الطرق كمثيالهتا وجود معاجم حاسوبية أو مدونات لغوية‬
‫موسومة باملعلومات اللغوية وخاصة ما يتعلق بمعانيها الداللية يف سياقات خمتلفة‪،‬‬
‫ليمكن من خالهلا تدريب خوارزميات تعلم اآللة عىل التمييز بني معاين الرتاكيب يف‬
‫السياقات اللغوية املتعددة‪.‬‬
‫كذلك توظف بعض الطرق املستعملة يف التعرف اآليل عىل الرتاكيب االصطالحية‬
‫معلومات التحليل الرصيف والنحوي اآليل يف تعزيز دقة اخلوارزميات املصممة هلذه‬
‫املهمة‪ ،‬ومن األمثلة عىل ذلك دراسة ‪ (2013) Green et al.‬التي طبقت نموذج ًا‬
‫للتحليل اللغوي اآليل يتضمن االستفادة من املعلومات اللغوية الرصفية والنحوية‬
‫يف حتسني مستوى الدقة يف التعرف اآليل عىل الرتاكيب االصطالحية يف اللغة العربية‬
‫والفرنسية‪ ،‬وقد وجدت الدراسة كذلك يف التجربة املطبقة عىل عينة من النصوص‬
‫اللغوية أن نتائج التحليل اللغوي كذلك تأثرت إجيابي ًا عند دمج التعرف اآليل عىل‬
‫الرتاكيب يف مراحل برنامج التحليل اللغوي اآليل املختلفة‪ .‬وقد تعددت الطرق املقرتحة‬
‫لتقييم النامذج والربامج احلاسوبية ملهام االستخراج والتعرف اآليل‪ ،‬وذلك تبع ًا لتعدد‬
‫الطرق املستعملة يف هذه التطبيقات‪ ،‬ومن أشهر طرق التقييم يف مهمة االستخراج اآليل‬
‫ما ييل‪:‬‬

‫‪-152-‬‬
‫Ÿ Ÿالتصنيف اليدوي للنتائج من قبل اخلرباء واللغويني املختصني‪.‬‬
‫Ÿ Ÿاملقارنة اآللية بمعاجم حاسوبية معدة مسبقا‪ ،‬ومن أبرز عيوب هذه الطريقة‬
‫صعوبة توفر معاجم حموسبة شاملة للرتاكيب االصطالحية مما يقلل من فعاليتها‬
‫ومستوى تغطيتها يف تقييم املخرجات الصحيحة التي قد ال توجد يف املعاجم‬
‫املستعملة‪.‬‬
‫Ÿ Ÿقوائم الرتاكيب االصطالحية املصممة ملهمة استخراج حمددة‪ ،‬وهذه الطريقة‬
‫مفيدة جدا عندما يكون اهلدف هو قياس مدى فعالية نموذج استخراج حمدد‬
‫يف سياق لغوي خاص‪ ،‬كاستخراج عدد من الرتاكيب التي تستعمل بكثرة يف‬
‫الكتابات العلمية والرسائل األكاديمية عىل سبيل املثال‪.‬‬
‫Ÿ Ÿالتقييم املتكامل أو اهلجني‪ ،‬والذي يوظف عدد ًا من الطرق السابقة يف تقييم‬
‫النموذج احلاسويب‪ ،‬وغالبا ما تستعمل هذه الطريقة عند تعذر االعتامد عىل‬
‫طريقة واحدة ألسباب عملية متعددة‪.‬‬
‫ويكثر استعامل طرق التقييم املعتادة يف نامذج التنقيب عن البيانات لتقييم خمرجات‬
‫التعرف اآليل عىل الرتاكيب االصطالحية‪ ،‬حيث تتم مقارنة نتائج املرمز اآليل للرتاكيب‬
‫االصطالحية بنصوص موسومة برموز للرتاكيب االصطالحية من قبل اخلرباء‪ ،‬أو‬
‫باالعتامد عىل مصادر لغوية خمصصة للرتاكيب االصطالحية‪ ،‬وتستعمل يف هذا التقييم‬
‫غالب ًا درجات القياس املعروفة كدرجة الدقة واالستدعاء ودرجة إف (‪Precision,‬‬
‫‪.)Recall, and F-measure‬‬

‫كذلك تستفيد بعض الدراسات من استعامل ما يعرف بالتقييم التطبيقي‪ ،‬والذي‬


‫يعتمد عىل تقييم النموذج احلاسويب من خالل قياس مدى تأثريه يف جودة خمرجات‬
‫أحد تطبيقات معاجلة اللغة ذات الصلة بالرتاكيب االصطالحية‪ ،‬كالتحليل اللغوي أو‬
‫الرتمجة اآللية‪ ،‬ومن ثم يكون احلكم عىل مدى فعالية النموذج ودقة نتائجه بناء عىل‬
‫مدى تأثريه اإلجيايب يف تطبيقات معاجلة اللغات‪.‬‬
‫ومن الطرق املستعملة مؤخر ًا يف تقييم وحتسني أداء تطبيقات االستخراج والتعرف‬
‫اآليل ما يعرف بطريقة املهمة املشرتكة ‪ ،Shared Task‬والتي غالب ًا ما تكون جز ًءا من‬

‫‪-153-‬‬
‫الفعاليات العلمية امللحقة باملؤمترات األكاديمية املختصة يف اللسانيات احلاسوبية‬
‫وعلوم املعاجلة اآللية للغات‪ ،‬فيقوم املنظمون للمؤمتر بعرض مهمة حمددة للمختصني‬
‫املشاركني يف املؤمتر كاالستخراج اآليل للرتاكيب االصطالحية االسمية عىل سبيل‬
‫املثال‪ ،‬و ُيطلب بعد ذلك من املشاركني تنفيذ هذ املهمة باستعامل إجراءات وخطوات‬
‫مشرتكة تُرشح هلم بالتزامن مع دعوات املشاركة يف املؤمتر‪ ،‬وعند االنتهاء من تنفيذ هذه‬
‫املهمة‪ ،‬يتدارس املشاركون نتائج تطبيقاهتم املختلفة‪ ،‬ومن خالل املقارنة بني النتائج‬
‫يتوصل املشاركون إىل تقييم وتصور ألداء تطبيقاهتم يف سياقات لغوية متعددة‪ ،‬وقد‬
‫تتعدد كذلك اللغات املستعملة يف املهمة الواحدة‪ ،‬فيكون التقييم حينئذ مفيد ًا ملعرفة ما‬
‫إذا كان باإلمكان تعميم النتائج لتشمل لغات أخرى‪.‬‬

‫‪ 3.3‬الرتاكيب االصطالحية واملعاجم احلاسوبية‬


‫دور أسايس يف حتسني كثري من نتائج تطبيقات معاجلة‬ ‫لتوفر املصادر اللغوية اآللية ٌ‬
‫اللغات‪ ،‬وخاصة ما يتعلق منها بمعاجلة الرتاكيب االصطالحية‪ ،‬فكثري من التطبيقات‬
‫التي سبق احلديث عنها يف هذا الفصل تعتمد دقة النتائج فيها عىل مدى توفر هذه‬
‫املصادر اللغوية ومستوى جودهتا؛ وهلذه األمهية نجد يف أدبيات املعاجلة احلاسوبية‬
‫للرتاكيب االصطالحية عدد ًا كبري ًا من األبحاث التي هتتم ببناء مصادر لغوية حاسوبية‬
‫للرتاكيب االصطالحية‪ ،‬وتتضمن كذلك يف بعض احلاالت أنظمة متثيلية للمعلومات‬
‫اللغوية التي تضاف هلا يف املستويات الرصفية والنحوية والداللية وغريها؛ وذلك‬
‫لتوسيع نطاق االستفادة من هذه املصادر يف تطبيقات معاجلة اللغة املتعددة‪.‬‬
‫وقد َقدَّ م ‪ )2016) Losnegaard et al.‬مراجعة شاملة للمصادر احلاسوبية‬
‫املتوفرة للرتكيب االصطالحية‪ ،‬واعتمد الباحثون يف معرفة هذه املصادر عىل قواعد‬
‫(((‬
‫بيانات املصادر اللغوية عىل شبكة اإلنرتنت(((‪ ،‬وكذلك باستعامل استبانة خاصة‬
‫ُصممت هلذا الغرض ووزعت عىل الباحثني واملهتمني يف قوائم بريدية متنوعة‪ ،‬ويف‬

‫‪ -1‬من أهم املصادر التي رجعت هلا لدراسة قواعد البيانات التالية‪:‬‬
‫‪.- META-SHARE: the ILSP managing node‬‬
‫‪.- ELRA: European Language Resources Association‬‬
‫‪.- SIGLEX-MWE: the MWE community website‬‬
‫‪ -2‬االستبانة متاحة عىل اإلنرتنت ويمكن الرجوع هلا من خالل هذا الرابط‪https://goo.gl/eYz8qL :‬‬

‫‪-154-‬‬
‫نتائج هذه املراجعة ُيالحظ وجود تنوع يف هذه املصادر؛ وذلك وفق ًا لألغراض التي‬
‫أنشئت من أجلها‪ ،‬فمنها عىل سبيل املثال‪ ،‬ما يكون عىل شكل وحدات معجمية جمردة‬
‫ال طويلة لرشح معاين الدالالت املختلفة‬ ‫من سياقاهتا اللغوية‪ ،‬ومنها ما يتضمن مج ً‬
‫للرتكيب يف سياقات لغوية خمتلفة‪ ،‬ومن هذه املصادر كذلك ما يقترص عىل لغة واحدة‬
‫ومنها ما يشمل لغات متعددة‪ .‬وتُوفر بعض هذه املصادر معلومات لغوية إضافية عن‬
‫الرتكيب أو الوحدات املعجمية باالعتامد عىل نظام حاسويب لتمثيل البيانات اللغوية‪،‬‬
‫وقد تعتمد بعض هذه املصادر عىل األنظمة القياسية لتمثيل املصادر اللغوية كالنظام‬
‫القيايس املعروف((( ‪ ،Lexical Mark-up Framework‬ومن أهم فوائد اعتامد هذه‬
‫األنظمة القياسية يف متثيل البيانات اللغوية‪ ،‬سهولة استعامل املصدر اللغوي وتوظيفه‬
‫يف تطبيقات حاسوبية خمتلفة دون احلاجة إلضافة الكثري من التغيريات عىل املصادر‬
‫األصلية‪.‬‬
‫وقد تعددت املعاجم احلاسوبية املطورة يف اللغة العربية‪ ،‬فعىل سبيل املثال‬
‫قدم ‪ )2016) Alghamdi and Atwell‬نظاما لتمثيل البيانات اللغوية للرتاكيب‬
‫االصطالحية يف اللغة العربية وذلك للوصول إىل متثيل حاسويب شامل هلذه الظاهرة‬
‫اللغوية يراعي اخلصائص الفريدة للغة العربية بمختلف مظاهرها ومستوياهتا اللغوية‪،‬‬
‫ويف دراسة أخرى َط َّور ‪ (2016) Najar et al.‬معج ًام للمركبات االسمية يف اللغة‬
‫(((‬
‫العربية مع متثيل هلا يف البيئة احلاسوبية اخلاصة بمهام معاجلة اللغات واملعروفة بنوج‬
‫‪ ،Nooj‬وقد اجتهت عدد من الدراسات األخرى يف هذا املجال إىل نرش قوائم لعدد من‬
‫الرتاكيب التي تم التعرف عليها باستخدام طرق االستخراج اآليل املتنوعة يف مواقع‬
‫خاصة أو ضمن قواعد البيانات اللغوية عىل اإلنرتنت‪ ،‬كام يف هذه األمثلة‪Hawwari( :‬‬
‫‪ .) et al.,2014; Attia, 2006; Abdu, 2011‬وعىل الرغم من تعدد الدراسات يف‬
‫هذ املجال إال أن اللغة العربية التزال يف حاجة إىل املزيد من البحث واجلهود العلمية‬
‫املؤسسية لبناء مصادر لغوية حاسوبية حديثة متثل اللغة العربية بكافة مستوياهتا كام‬

‫‪ -1‬ملزيد من املعلومات حول هذ النظام وطريقة تطبيقه عىل لغات متعددة ومنها العربية يمكن الرجوع إىل كتابه األسايس‬
‫)‪)Francopoulo, 2013‬‬
‫‪ -2‬تقدم هذه البيئة جمموعة من األدوات احلاسوبية ملعاجلة اللغة بكافة مستوياهتا‪ ،‬وملزيد من التفاصيل يمكن الرجوع هلذا‬
‫املصدر )‪)Silberztein, 2016‬‬

‫‪-155-‬‬
‫توفر معلومات دقيقة عن التطور الداليل الستعامل الرتاكيب االصطالحية يف األزمنة‬
‫واألماكن املختلفة التي تستعمل فيها اللغة العربية‪ ،‬وتقدم كذلك أنظمة تفصيلية لتمثيل‬
‫البيانات اللغوية‪.‬‬

‫‪ 3.4‬الرتاكيب االصطالحية وتطبيقات معاجلة اللغات‬


‫أثبتت كثري من األبحاث والتجارب التطبيقية يف كثري من أدبيات معاجلة اللغات‬
‫واللسانيات احلاسوبية (‪Tan and Pal, 2014; Monti, 2015; Carpuat and‬‬
‫‪ )Diab,2010‬أن املعاجلة احلاسوبية الكافية هلذه الظاهرة اللغوية هلا أثر إجيايب كبري يف‬
‫حتسني خمرجات كثري من مهام معاجلة اللغات آلي ًا؛ وذلك لدورها املحوري يف تقليل‬
‫اﻟﻤﺨﺘﻠﻔﺔ‪ ،‬واﻟﺘﻲ ﻣﻦ‬ ‫ﻘﻠﯿﻞ ﻧﺴﺒﺔ اﻟﻐﻤﻮض اﻟﻠﻐﻮي ﻓﻲ اﻟﻨﺘﺎﺋﺞ اﻷﺧﯿﺮة ﻟﮭﺬه اﻟﺘﻄﺒﯿﻘﺎت‬
‫نسبة الغموض اللغوي يف النتائج األخرية هلذه التطبيقات املختلفة‪ ،‬والتي من أمهها‬
‫الشكلاﻵﻟﯿﺔ‪ ،‬وﯾﻮﺿﺢ‬ ‫اﻟﺘﺮﺟﻤﺔ‬ ‫ﺎ ﺗﻄﺒﯿﻘﺎت اﻟﺘﺤﻠﯿﻞ اﻟﻠﻐﻮي ﺑﻤﺴﺘﻮﯾﺎﺗﮫ اﻟﻤﺨﺘﻠﻔﺔ وﻛﺬﻟﻚ‬
‫تطبيقات التحليل اللغوي بمستوياته املختلفة وكذلك الرتمجة اآللية‪ ،‬ويوضح‬
‫الظاهرةاﻟﺤﺎﺳﻮﺑﯿﺔ ﻟﮭﺬه‬
‫اﻟﻤﻌﺎﻟﺠﺔ‬ ‫املعاجلة دﻣﺞ‬
‫احلاسوبية هلذه‬ ‫دمج ﻓﯿﮭﺎ‬
‫ﯾﻤﻜﻦ‬ ‫اﻟﺘﻲفيها‬ ‫اﻟﺘﻄﺒﯿﻘﺎت‬
‫التي يمكن‬ ‫ﻟﻌﺪدلعددﻣﻦ‬
‫من التطبيقات‬ ‫أﻣﺜﻠﺔأمثلة‬
‫ﻞ رﻗﻢ ‪ 9‬رقم ‪9‬‬
‫ھﺮة اﻟﻠﻐﻮﯾﺔ‪.‬‬
‫اللغوية‪.‬‬

‫للغات‪2.‬ﺷﻜﻞ‬
‫اﻵﻟﯿﺔاآلليةﻟﻠﻐﺎت‪.‬‬
‫اﻟﻤﻌﺎﻟﺠﺔاملعاجلة‬ ‫ﻟﺘﻄﺒﯿﻘﺎت‬
‫أمثلة لتطبيقات‬ ‫‪ :‬أﻣﺜﻠﺔ‬
‫الشكل ‪:9‬‬
‫ﻰ ﺳﺒﯿﻞ اﻟﻤﺜﺎل‪ ،‬أﺛﺒﺘﺖ دراﺳﺔ ‪ (2013) Ghoneim and Diab‬ﺗﺤﺴﻨﺎ ﻣﻠﺤﻮظﺎ ً‬
‫‪ -156-‬اﻟﻌﺮﺑﯿﺔ واﻹﻧﺠﻠﯿﺰﯾﺔ ﻋﻨﺪ دﻣﺞ ﻣﻌﺎﻟﺠﺔ‬
‫ﻣﺨﺮﺟﺎت ﻧﻈﺎم اﻟﺘﺮﺟﻤﺔ اﻵﻟﯿﺔ ﺑﯿﻦ اﻟﻠﻐﺔ‬
‫ﻛﯿﺐ اﻻﺻﻄﻼﺣﯿﺔ ﻓﻲ ﻧﻤﻮذج اﻟﺘﺮﺟﻤﺔ اﻹﺣﺼﺎﺋﻲ‪ ،‬و طﺒﻘﺖ اﻟﺪراﺳﺔ أرﺑﻊ ﺗﻘﻨﯿﺎت‬
‫فعىل سبيل املثال‪ ،‬أثبتت دراسة ‪ (2013) Ghoneim and Diab‬حتسنا ملحوظ ًا يف‬
‫خمرجات نظام الرتمجة اآللية بني اللغة العربية واإلنجليزية عند دمج معاجلة الرتاكيب‬
‫االصطالحية يف نموذج الرتمجة اإلحصائي‪ ،‬و طبقت الدراسة أربع تقنيات لدمج‬
‫الرتاكيب االصطالحية يف نظام الرتمجة اآللية وذلك وفق ًا للخصائص اللغوية للرتاكيب‬
‫االصطالحية املستهدف إدماجها يف برنامج الرتمجة‪ .‬وأوضحت النتائج تأثري ًا إجيابي ًا‬
‫لدمج الرتاكيب االصطالحية يف حتسن جودة نتائج تطبيق الرتمجة‪.‬‬
‫ويف أدبيات الرتمجة اآللية‪ ،‬تعددت الطرق املطبقة يف دمج معاجلة الرتاكيب‬
‫االصطالحية يف أنظمة الرتمجة اآللية املتعددة‪ ،‬فمنها ما يعتمد عىل التعرف اآليل األويل‬
‫هلذه الرتاكيب قبل بداية الرتمجة‪ ،‬ومنها ما يعتمد عىل استخراج هذه الرتاكيب بعد عملية‬
‫الرتمجة‪ ،‬واجتهت دراسات أخرى إىل دمج معاجلة الرتاكيب االصطالحية يف داخل نظام‬
‫الرتمجة؛ بتفعيل خوارزميات التعرف اآليل عىل هذه الرتاكيب باعتبارها إحدى مراحل‬
‫النموذج اخلاص بالرتمجة اآللية‪.‬‬
‫وتُعد برامج التحليل اللغوي اآليل من أكثر تطبيقات معاجلة اللغة إفادة من دمج‬
‫معاجلة الرتاكيب االصطالحية؛ وذلك للدور املهم هلذه املعاجلة يف حتسني نتائج التحليل‬
‫الرصيف والنحوي والداليل‪ ،‬والعكس صحيح فتحسن جودة مهام التحليل اللغوي‬
‫تؤدي إىل حتسن مهام املعاجلة اآللية الرئيسة هلذه الرتاكيب كاالستكشاف والتعرف‬
‫اآليل‪ .‬وقد تعددت كذلك األساليب املطبقة لدمج الرتاكيب االصطالحية يف نموذج‬
‫التحليل اللغوي اآليل فمنها ما يعتمد عىل االستخراج اآليل هلذه الرتاكيب ووضعها‬
‫يف قوائم خاصة بعد هناية عمليات التحليل اللغوي املتنوعة وذلك لضامن عدم تأثرها‬
‫باملعاجلة اآللية املعتادة للمفردات والرتاكيب يف اللغة‪ ،‬ومنها ما ُيوظف عدد ًا من‬
‫تقنيات التعرف اآليل عىل هذه الرتاكيب قبل أو بعد أو يف أثناء تطبيق نموذج التحليل‬
‫اللغوي‪ .‬ويف اللغة العربية أثبتت دراسة ‪ (2006) Attia‬حتسنا ملحوظ ًا يف التحليل اآليل‬
‫اللغوي للغة العربية عند دمج املعاجلة احلاسوبية لبعض أنواع الرتاكيب االصطالحية‪،‬‬
‫وأوصت الدراسة بتعدد أساليب هذ الدمج لتشمل كافة أجزاء نموذج التحليل اللغوي‬
‫بداية بمرحلة إعداد وحتضري النص والتقسيم اآليل للكلامت واجلمل وانتهاء باملراحل‬
‫املتقدمة كالتحليل النحوي والداليل والوظيفي للنصوص‪.‬‬

‫‪-157-‬‬
‫‪ -4‬عقبات وحتديات‬
‫عىل الرغم من التقدم الذي يمكن مالحظته يف املعاجلة احلاسوبية للرتاكيب‬
‫االصطالحية إال أن البحث يف هذ املجال اليزال يواجه عدد ًا من التحديات واملشكالت‬
‫املعقدة املفتوحة التي تتطلب جهود ًا وحلوالً علمية وعملية لتحسني معاجلة هذه‬
‫الظاهرة يف جتلياهتا وأنواعها املختلفة‪ ،‬ويف هذا القسم سنشري باختصار إىل أهم هذه‬
‫التحديات‪.‬‬
‫من أهم التحديات البحثية يف مهام االستخراج اآليل للرتاكيب االصطالحية‪ ،‬أنه‬
‫عىل الرغم من الفائدة الكبرية التي قدمتها عدد من خوارزميات االستخراج املتنوعة‬
‫وخاصة التي تشكل جزء ًا من النامذج اآللية املعتمدة عىل املعلومات اإلحصائية‬
‫كمعادالت االرتباط ونموذج إن قرام‪ ،‬إال أن هذه الطرق يف االستخراج اآليل ال تزال‬
‫قليلة الفائدة عندما يتعلق األمر باستكشاف عدد من أنواع الرتاكيب االصطالحية غري‬
‫املتصلة‪ ،‬أو التي تطرأ عليها تغريات رصفية ونحوية متنوعة بحسب السياق الذي تكون‬
‫فيه؛ ألن مثل هذا النوع من الرتاكيب يتطلب معاجلة حاسوبية دقيقة يف عدد من مراحل‬
‫التحليل اللغوي حتى يتمكن النظام اآليل من استخراجه يف سياقاته وحاالته املتعددة‪.‬‬
‫أما بالنسبة لتقنيات االستخراج والتعرف اآليل املعتمدة عىل تعلم اآللة‪ ،‬ففي الغالب‬
‫أهنا بحاجة يف مرحلة تدريب خوارزميات التصنيف إىل االعتامد عىل مصادر لغوية‬
‫حاسوبية مزودة بمعلومات لغوية يف مستويات متعددة‪ ،‬وبناء هذه املصادر يف الغالب‬
‫يتطلب جهود ًا برشية مضنية ويستغرق أوقات ًا طويلة‪ ،‬لذا فإن من أهم املعوقات هلذه‬
‫األبحاث تعذر الوصول يف أغلب احلاالت إىل معاجم شاملة وكافية متثل الرتاكيب‬
‫االصطالحية بكل مظاهرها وخصائصها املختلفة‪ ،‬وكل هذا يؤثر سلبي ًا بشكل أو‬
‫بـآخر عىل جودة املخرجات النهائية هلذه التطبيقات‪.‬‬
‫ومن أهم املشاكل املعقدة كذلك يف هذ املجال‪ ،‬عدم وجود إمجاع بني املختصني‬
‫فيام يتعلق بمنهجية التقييم املعتمدة ملهام املعاجلة احلاسوبية للرتاكيب االصطالحية‪،‬‬
‫ووجود سلبيات ألغلب الطرق املستعملة يف تقييم النامذج احلاسوبية املختلفة والتي قد‬
‫تؤثر سلب ًا يف مدى مصداقيته‪ ،‬فعىل سبيل املثال عند االعتامد عىل املصادر اللغوية اآللية‬
‫يف تقييم النتائج‪ ،‬غالب ًا ما تواجهنا مشكلة ندرة هذه املصادر أو ضعفها وعدم شموهلا‬

‫‪-158-‬‬
‫للرتاكيب املستهدفة يف عملية االستخراج أو التعرف اآليل‪ ،‬وكذلك من ناحية أخرى‬
‫إذا تم االعتامد عىل التقييم غري اآليل‪ ،‬والذي يستعني باخلرباء واملختصني لتصنيف‬
‫النتائج إىل إجيابية أو سلبية‪ ،‬فإنه يف مثل هذ احلاالت ال يمكننا التقليل من التأثري السلبي‬
‫الستعامل احلدس وامليول الشخصية يف التقييم؛ ولذا فإن احلاجة ملحة يف هذ املجال‬
‫إىل استحداث منهجية واضحة وشاملة لتقييم التطبيقات املختلفة‪ ،‬باالستناد إىل معايري‬
‫علمية وعملية يسهل تطبيقها وتعميم نتائجها‪.‬‬

‫‪ -5‬اخلامتة‬
‫مع كثرة األبحاث وتعدد املناهج والطرق املستعملة يف اللسانيات احلاسوبية ومعاجلة‬
‫اللغات البرشية يبقى املجال مفتوح ًا واألسئلة البحثية مطروحة لتحقيق اهلدف األسمى‬
‫لعلوم الذكاء االصطناعي املتنوعة والذي يتمثل يف حماولة أنسنة اآلالت وتقليل الفجوة‬
‫بينها وبني البرش من خالل تعزيز طرق التواصل بني اإلنسان واآللة‪ ،‬وحماولة حتسني أداء‬
‫اآللة أو احلاسوب يف أداء املهام املتصلة باستعامل اللغة‪ ،‬وذلك باستثامر ما توفره اآلالت‬
‫من إمكانات وقدرات خارج قدراتنا البرشية املحدودة‪.‬‬
‫وكام ذكرنا يف مقدمة هذا البحث إن الرتاكيب االصطالحية من املشكالت املعقدة‬
‫بدرجة تعقيد هذه الظاهرة اللغوية يف لغتنا‪ ،‬وال تزال هذه الظاهرة يف اللغة العربية بحاجة‬
‫إىل مزيد من الدراسة والبحث والتحليل‪ ،‬وخاصة يف ظل إدراكنا ملا تتميز به اللغة العربية‬
‫من خصائص هندسية بارعة‪ ،‬ومكونات رياضية متميزة‪ ،‬كاجلذر واألوزان الرصفية‬
‫التي قد تساهم يف ترسيع تقدم األبحاث يف هذا امليدان‪ ،‬وسد الفجوة بني اللغة العربية‬
‫واملعاجلة احلاسوبية للرتاكيب االصطالحية بمختلف أشكاهلا وتطبيقاهتا‪.‬‬
‫وعىل الرغم من وجود الكثري من الدراسات املطبقة عىل اللغة العربية يف هذا امليدان‪،‬‬
‫إال أهنا يف جمملها ال تقارن بام وصل له البحث يف لغات أخرى كاإلنجليزية عىل سبيل‬
‫املثال؛ وهلذا التأخر أسباب لعل من أمهها قلة الباحثني واملتخصصني يف هذا النوع من‬
‫األبحاث‪ ،‬وكذلك قلة املؤسسات البحثية التي تُعنى بجمع املتخصصني يف اللسانيات‬
‫وعلوم احلاسوب ‪-‬وغريها من التخصصات ذات العالقة ‪ -‬لبناء فرق بحثية متكاملة‪،‬‬
‫يمكنها الوصول إىل نتائج ذات قيمة معرفية وتقديم إضافات علمية يف هذا املجال املهم‪.‬‬

‫‪-159-‬‬
‫املراجع العربية‬
‫ابن عمر‪ ،‬عبد الرزاق (‪ )2007‬املتالزمات اللفظية يف اللغة والقواميس العربية‪ ،‬جممع‬
‫األطرش‪ ،‬تونس‪.‬‬
‫أبو داود‪ ،‬حممد (‪ )2003‬معجم التعبري االصطالحي يف العرية املعارصة‪ ،‬دار غريب‪،‬‬
‫القاهرة‬
‫أبو سعد أمحد (‪ )1987‬معجم الرتاكيب والعبارات االصطالحية العربية القديم منها‬
‫واملولد‪ ،‬دار العلم للماليني بريوت‬
‫إسامعيل‪ ،‬حممود‪ .‬حسني‪ ،‬خمتار الطاهر‪ .‬الدوش‪ ،‬سيد عوض (‪ )1996‬املعجم السياقي‬
‫للتعبريات االصطالحية‪ ،‬مكتبة لبنان‪ ،‬بريوت‬
‫بشارة‪ ،‬أنطون (‪ )2002‬معجم التعابري‪ ،‬مكتبة لبنان‪ ،‬بريوت‬
‫حافظ‪ ،‬الطاهر عبد السالم هاشم (‪ )2004‬معجم احلافظ للمتصاحبات العربية‪ ،‬مكتبة‬
‫لبنان‪ ،‬بريوت‪.‬‬
‫حجازي‪ ،‬حممود فهمي (‪ )1980‬اجلانب السياقي يف املعاجم والكتب يف جمال تعليم‬
‫اللغة العربية لغري الناطقني هبا‪ ،‬الندوة العاملية األوىل لتعليم العربية لغري‬
‫الناطقني هبا الرياض (ج‪( ، )1‬ص‪.)251-232‬‬
‫حسان‪ ،‬متام (‪ )1973‬اللغة العربية معناها ومبناها‪ ،‬اهليئة املرصية العامة للكتاب‪،‬‬
‫القاهرة‬
‫محادة‪ ،‬سلوى (‪)2009‬املعاجلة اآللية للغة العربية‪ ،‬دار غريب‪ ،‬القاهرة‪.‬‬
‫اخلويل‪ ،‬حممد عيل (‪ )1998‬الرتاكيب الشائعة يف اللغة العربية‪ ،‬دار الفالح‪ ،‬عامن‪.‬‬
‫داود‪ ،‬حممد حممد (‪ )2014‬املعجم املوسوعي للتعبري االصطالحي يف اللغة العربية‪،‬‬
‫دارهنضة مرص‪ ،‬القاهرة‬
‫غريم‪ ،‬باوال سانتيان (‪ )2014‬تصنيف جمدد وجمدد للمتالزمات اللفظية العربية‪ ،‬يف‬
‫«املعجمية العربية قضايا وآفاق ج‪ ، 2.‬كنوز املعرفة‪ ،‬عامن‬
‫غزالة‪ ،‬حسن (‪ )1993‬ترمجة املتالزمات اللفظية‪ .‬ترمجان‪ ،‬املغرب (‪)2:2‬‬
‫فايد‪ ،‬وفاء كامل (‪ )2014‬املعاجم العربية القطاعية بني الرتاث واملعارصة معجم‬
‫التعابري االصطالحية نموذجا‪ .‬يف «املعجمية العربية قضايا وآفاق ج‪ 1‬كنوز‬
‫املعرفة‪ ،‬عامن‬

‫‪-160-‬‬
،‫ أبو اهلول‬،‫) معجم التعابري االصطالحية يف العربية املعارصة‬2007( ‫ وفاء كامل‬،‫فايد‬
‫القاهرة‬
‫ اللسان‬،‫) التعابري االصطالحية والسياقية ومعجم عريب هلا‬1979( ‫ عيل‬،‫القاسمي‬
.)34-17‫ ص‬1‫ ج‬17‫ الرباط (مج‬،‫العريب‬
‫) األسس النظرية لوضع معجم للمتالزمات اللفظية‬1996( ‫ حممد حلمي‬،‫هليل‬
.‫) تونس‬13-12( ‫ املعجمية العربية‬،‫العربية‬
‫املراجع األجنبية‬
Abdou, A. (2011). Arabic Idioms: a corpus-based study. London:
Routledge.
Alghamdi, A. (2018). A computational lexicon and representational
model for Arabic multiword expressions, PhD thesis,
University of Leeds
Alghamdi, A., & Atwell, E. (2016). An empirical study of Arabic
formulaic sequence extraction methods. The 10th International
Conference on Language Resources and Evaluation. Portorož,
Slovenia: LREC.
Alghamdi, A., & Atwell, E. (2017). Towards Comprehensive
Computational Representations of Arabic Multiword
Expressions. In International Conference on Computational
and Corpus-Based Phraseology (pp. 415-431). Springer,
London.‫‏‬
Al-Sabbagh, R., Girju, R., & Diesner, J. (2014). Unsupervised
Construction of a Lexicon and a Repository of Variation
Patterns for Arabic Modal Multiword Expressions.
Proceedings of the 10th Workshop on Multiword Expressions
(MWE), 114–123.
Attia, M. and Tounsi, L. (2010). Automatic Lexical Resource
Acquisition for Constructing an LMF-Compatible Lexicon

-161-
of Modern Standard Arabic In: Dublin: Technical report, The
NCLT Seminar Series, DCU.
Attia, Mohammed A. (2006). Accommodating multiword expressions
in an Arabic LFG grammar. In Proceedings of FinTAL 2006,
pages 87–98, Turku
Atwell, E.S. (1988). Grammatical analysis of English by statistical
pattern recognition In: Pattern Recognition. Springer, pp.
626–635.
Baldwin, T. and Kim, S.N. (2010). Multiword expressions. Handbook
of Natural Language Processing, second edition. Morgan and
Claypool.
Bar, K., Diab, M. and Hawwari, A. (2014). Arabic Multiword
Expressions In: Language, Culture, Computation.
Computational Linguistics and Linguistics. Springer, pp.
64–81.
Bartsch, S. (2004). Structural and functional properties of collocations
in English: A corpus study of lexical and pragmatic constraints
on lexical co-occurrence. Gunter Narr Verlag.
Berry-Rogghe, G. (1973). The computation of collocations and
their relevance in lexical studies. The computer and literary
studies.,pp.103–112.
Biber Douglas, Stig Johansson, Geoffrey Leech, Susan Conrad, and
Edward Finegan (1999). Longman Grammar of Spoken and
Written English. Harlow: Longman.
Carpuat, Marine and Mona Diab. (2010). Task-based evaluation of
multiword expressions: A pilot study in statistical machine
translation. In Proceedings of NAACL/HLT 2010, pages 242–
245, Los Angeles, CA.

-162-
Constant, M., Eryiğit, G., Monti, J., van der Plas, L., Ramisch, C.,
Rosner, M. and Todirascu, A. (2017). Multiword expression
processing: a survey. Computational Linguistics.,pp.1–92.
Cowie, A.P. (1998). Phraseology: Theory, analysis, and applications.
OUP Oxford.
da Silva, Joaquim Ferreira, Gaël Dias, Sylvie Guilloré, and José
Gabriel Pereira Lopes. (1999). Using localmaxs algorithm for
the extraction of contiguous and non-contiguous multiword
lexical units. In Proceedings of the 9th Portuguese Conference
on Artificial Intelligence, pages 113–132, London.
Dale, R. (2010). Classical approaches to natural language processing.
In Indurkhya, N. and Damerau, F.J. eds., 2010. Handbook of
natural language processing (Vol. 2). CRC Press.
Erman, B. and Warren, B., (2000). The idiom principle and the open
choice principle. Text-Interdisciplinary Journal for the Study of
Discourse, 20(1), pp.29-62.
Evert, Stefan. (2005). The Statistics of Word Co-occurrences: Word
Pairs and Collocations. Ph.D. thesis, University of Stuttgart,
Stuttgart.
Farahmand, Meghdad and James Henderson. (2016). Modeling
the non-substitutability of multiword expressions with
distributional semantics and a log-linear model. In Proceedings
of the ACL 2016 Workshop on MWEs, pages 61–66, Berlin
Fillmore, C.J. (1979). On fluency In: Individual differences in
language ability and language behavior. Elsevier, pp. 85–101.
Francopoulo, G. (2013). LMF lexical markup framework. Hoboken,
NJ; London: ISTE Ltd.

-163-
Ghoneim, Mahmoud and Mona Diab. (2013). Multiword expressions
in the context of statistical machine translation. In Proceedings
of IJCNLP 2013, pages 1181–1187, Nagoya
Girju, Roxana, Dan Moldovan, Marta Tatu,and Daniel Antohe. (2005).
On the semantics of noun compounds. CSL Special Issue on
MWEs, 19(4):479–496.
Green, Spence, Marie-Catherine de Marneffe, and Christopher D.
Manning. (2013). Parsing models for identifying multiword
expressions. Computational Linguistics, 39(1):195–227.
Haddar, K., & Benhamadou, A. (2010). A Syntactic Lexicon for
Arabic Verbs. Information Retrieval, (July 2014), 269–272.
Hashimoto, Chikara and Daisuke Kawahara. (2008). Construction
of an idiom corpus and its application to idiom identification
based on WSD incorporating idiom-specific features. In
Proceedings of EMNLP 2008, pages 992–1001, Waikiki, HI
Hawwari, A., Attia, M., & Diab, M. (2014). A framework for the
classification and annotation of multiword expressions in
dialectal arabic. In Proceedings of the EMNLP 2014 Workshop
on Arabic Natural Language Processing (ANLP) (pp. 48-56).‫‏‬
Katz, Graham and Eugenie Giesbrecht. (2006). Automatic
identification of non-compositional multi-word expressions
using latent semantic analysis. In Proceedings of the ACL/
COLING 2006 Workshop on MWEs, pages 12–19, Sydney
Losnegaard, Gyri Smørdal, Federico Sangati, Carla Parra Escartín,
Agata Savary, Sascha Bargmann, and Johanna Monti. (2016).
Parseme survey on MWE resources. In Proceedings of LREC,
pp 2299–2306 Portoroz.
Ludeling, A., & Kyto, M. (2008). Corpus linguistics: An international
handbook. Walter de Gruyter. Berlin

-164-
McCarthy, Diana, Bill Keller, and John Carroll. (2003). Detecting a
continuum of compositionality in phrasal verbs. In Proceedings
of the ACL 2003 Workshop on MWEs, pages 73–80, Sapporo.
Meghawry, S., Elkorany, A., Salah, A., & Elghazaly, T. (2015).
Semantic Extraction of Arabic Multiword Expressions.
Computer Science & Information Technology ( CS & IT ).
Mel’čuk, I., (1998). Collocations and lexical functions. Phraseology.
Theory, analysis, and applications, pp.23-53.
Miller, G.A., Beckwith, R., Fellbaum, C., Gross, D. and Miller, K.J.
(1990). Introduction to wordnet: An on-line lexical database.
International journal of lexicography. 3(4),pp.235–244.
Moirón, M.B.V. (2005). Data-driven identification of fixed expressions
and their modifiability. PhD thesis, University of Groningen
Monti, Johanna, Federico Sangati, and Mihael Arcan. (2015). TED-
MWE: A bilingual parallel corpus with MWE annotation.
In Proceedings of the Second Italian Conference on
Computational Linguistics CLiC-it 2015, pages 193–197,
Trento.
Najar, D., Mesfar, S. and Ghezela, H. Ben (2015). A large
terminological dictionary of Arabic compound words In:
International NooJ Conference. Springer, pp. 16–28.
Ohlrogge, A. (2009). Formulaic expressions in intermediate EFL
writing assessment. Formulaic language. 2,pp.387–404.
Pawley, A., &F. Syder. (1983). Two puzzles for linguistic theory:
Nativelike selection and nativelike fluency. J. Richards&R.
Schmidt (eds.). Language and Communication, pp.191-226.
Pecina, Pavel. (2008). Lexical Association Measures: Collocation
Extraction. Ph.D. thesis, Faculty of Mathematics and Physics,
Charles University in Prague, Prague.

-165-
Ramisch, C. (2015). Multiword Expressions Acquisition: A Generic
and Open Framework. Springer. London.
Ramisch, Carlos, Aline Villavicencio, Leonardo Moura, and Marco
Idiart. (2008). Picking them up and figuring them out: Verb-
particle constructions, noise and idiomaticity. In Proceedings
of CoNLL 2008, pages 49–56, Manchester
Reddy, Siva, Diana McCarthy, and Suresh Manandhar. (2011). An
empirical study on compositionality in compound nouns. In
Proceedings of IJCNLP 2011, pages 210–218, Chiang Mai.
Riedl, Martin and Chris Biemann. (2015). A single word is not
enough: Ranking multiword expressions using distributional
semantics. In Proceedings of EMNLP 2015, pages 2430–2440,
Lisbon.
Rikters, M. and Bojar, O. (2017). Paying Attention to Multi-Word
Expressions in Neural Machine Translation. Machine
Translation Summit XVI, Nagoya, Japan
Sag, I.A., Baldwin, T., Bond, F., Copestake, A. and Flickinger, D.
(2002). Multiword expressions: A pain in the neck for NLP
In: Computational Linguistics and Intelligent Text Processing.
Springer, pp. 1–15.
Salehi, Bahar, Paul Cook, and Timothy Baldwin. (2015). A word
embedding approach to predicting the compositionality of
multiword expressions. In Proceedings of NAACL/HLT 2015,
pages 977–983, Denver, CO.
Seretan, Violeta. (2011). Syntax-Based Collocation Extraction, Text,
Speech and Language Technology, Springer
Silberztein, M. (2016). Formalizing Natural Languages: The NooJ
Approach. John Wiley & Sons.‫‏‬

-166-
Sinclair, J. (1991). Corpus, concordance, collocation. Oxford
University Press.
Stevens, M.E. and Giuliano, V.E. (1965). Statistical Association
Methods for Mechanized Documentation: Symposium
Proceedings, Washington, 1964. US Government Printing
Office.
Stevenson, Suzanne, Afsaneh Fazly, and Ryan North. (2004).
Statistical measures of the semi productivity of light verb
constructions. In Proceedings of the ACL 2004 Workshop on
MWEs, pages 1–8, Barcelona.
Tan, Liling and Santanu Pal. (2014). Manawi: Using multi-word
expressions and named entities to improve machine translation.
In Proceedings of the Ninth Workshop on Statistical Machine
Translation, pages 201–206, Baltimore, MD
Vintar, Š., Vintar, Š., Fišer, D. and Fišer, D. (2008). Harvesting Multi-
Word Expressions from Parallel Corpora. Proceedings of
the Sixth International Language Resources and Evaluation
(LREC’08). (Fišer),pp.1091–1096.
Wray, A. 2002. Formulaic language and the lexicon. Cambridge
University Press Cambridge.
Zarrieß, S. and Kuhn, J. (2009). Exploiting translational
correspondences for pattern-independent MWE identification
In: Proceedings of the Workshop on Multiword Expressions
Identification, Interpretation, Disambiguation and Applications
- MWE ’09. Morristown, NJ, USA: Association for
Computational Linguistics, pp. 23–30.
Zaghouani, W. (2014). Critical Survey of the Freely Available Arabic
Corpora. In Workshop on Free/Open-Source Arabic Corpora
and Corpora Processing Tools Workshop Programme In
Proceedings of LREC.‫‏‬

-167-
-168-
‫الصفحة‬ ‫املوضوع‬

‫‪5‬‬ ‫هذا املرشوع‬

‫‪7‬‬ ‫كلمة املركز‬

‫‪9‬‬ ‫مقدمة املحرر‬

‫‪13‬‬ ‫موضوعات فصول الكتاب‬

‫‪15‬‬ ‫الفصل األول‪ :‬طرق ومستويات معاجلة اللغة يف الذكاء االصطناعي‬

‫‪17‬‬ ‫ملخص الفصل‬

‫‪18‬‬ ‫‪ -1‬املقدمة‬

‫‪21‬‬ ‫‪ -2‬مستويات معاجلة اللغة‬

‫‪24‬‬ ‫‪ 2.1‬بعض عمليات ُمعاجلة اللغة يف خمتلف املستويات‬

‫‪28‬‬ ‫‪ 2.2‬طرق معاجلة اللغة‬

‫‪-169-‬‬
‫‪29‬‬ ‫‪ 2.3‬تعلم اآللة‬

‫‪32‬‬ ‫‪-3‬الطرق االحتاملية يف تعلم اآللة‬

‫‪35‬‬ ‫‪ 3.1‬نامذج ماركوف اخلفية‬

‫‪38‬‬ ‫‪ 3.2‬التعرف النمطي يف الفضاء الداليل‬

‫‪42‬‬ ‫‪ -٤‬اخلامتة‬

‫‪43‬‬ ‫املراجع‬

‫‪45‬‬ ‫الفصل الثاين‪ :‬التعلم العميق وتطبيقاته يف معاجلة اللغة‬

‫‪47‬‬ ‫ملخص الفصل‬

‫‪48‬‬ ‫‪ -1‬مقدمة‬

‫‪48‬‬ ‫‪ -2‬تاريخ الشبكات العصبية والتع ّلم العميق‬

‫‪52‬‬ ‫‪ -3‬أسباب نجاح التعلم العميق‬

‫‪52‬‬ ‫‪ -4‬الشبكات العصبية والتعلم العميق‬

‫‪56‬‬ ‫‪ 4.1‬تدريب الشبكات العصبية‬

‫‪56‬‬ ‫‪ -5‬معامريات الشبكات‬

‫‪ 5.1‬ا ُملستَقبِل متعدد الطبقات‬


‫‪56‬‬
‫(‪))Multi-Layer Perceptron (MLP‬‬

‫‪ 5.2‬الشبكات العصبية الرتشيحية‬


‫‪57‬‬
‫(‪)Convolutional Neural Networks‬‬

‫‪-170-‬‬
‫‪ 5.3‬الشبكات العصبية التكرارية‬
‫‪58‬‬
‫( ‪)Recurrent Neural Networks‬‬

‫‪61‬‬ ‫‪ -٦‬تطبيقات التعلم العميق يف معاجلة اللغة‬

‫‪61‬‬ ‫‪ ٦٫١‬تضمني الكلامت (‪)Words Embeddings‬‬

‫‪62‬‬ ‫‪ ٦٫2‬التعرف عىل املشاعر (‪)Sentiment Analysis‬‬

‫‪63‬‬ ‫‪ ٦٫3‬الرتمجة اآللية (‪)Machine Translation‬‬

‫‪63‬‬ ‫‪ ٦٫4‬التعرف عىل الكالم (‪)Speech Recognition‬‬

‫‪ ٦٫5‬حتويل الصور إىل نصوص‬


‫‪64‬‬
‫(‪)Optical Character Recognition‬‬

‫‪65‬‬ ‫‪ ٦٫6‬توليد الكالم (‪)Speech Synthesis‬‬

‫‪65‬‬ ‫‪ ٦٫7‬املزيد من التطبيقات‬

‫‪66‬‬ ‫املراجع‬

‫‪69‬‬ ‫الفصل الثالث‪ :‬الرتمجة اآللية‬

‫‪71‬‬ ‫ملخص الفصل‬

‫‪72‬‬ ‫‪ -1‬مقدمة‬

‫‪73‬‬ ‫‪ -2‬يشء من التاريخ‬

‫‪74‬‬ ‫‪ -3‬حجر رشيد‬

‫‪75‬‬ ‫‪ -4‬الرتمجة اآللية اإلحصائية‬

‫‪82‬‬ ‫‪ -5‬تقييم جودة الرتمجة‬

‫‪-171-‬‬
‫‪84‬‬ ‫‪ -6‬عرص جديد‬

‫‪89‬‬ ‫‪ -7‬أبرز التحديات‬

‫‪90‬‬ ‫‪ -8‬خامتة‬

‫‪91‬‬ ‫املراجع‬

‫الفصل الرابع‪ :‬نمذجة الكلمة العربية ‪-‬خوارزميات الذكاء‬


‫‪95‬‬
‫االصطناعي يف حتليل الكلمة العربية لغو ًيا وتوزيع ًيا‬

‫‪97‬‬ ‫ملخص الفصل‬

‫‪98‬‬ ‫‪ -1‬مقدمة‬

‫‪98‬‬ ‫‪ 1.1‬نمذجة اللغة‬

‫‪99‬‬ ‫‪ 1.2‬نمذجة الكلمة العربية‬

‫‪101‬‬ ‫‪ -2‬صعوبات نمذجة الكلمة العربية‬

‫‪103‬‬ ‫‪-3‬خوارزميات الذكاء االصطناعي يف نمذجة الكلمة لغو ًيا‬

‫‪110‬‬ ‫‪ 3.1‬املحلالت الرصفية‬

‫‪112‬‬ ‫‪ -4‬نمذجة الكلمة توزيع ًيا‬

‫‪113‬‬ ‫‪ 4.1‬التمثيل الكالسيكي للكلمة‬

‫‪114‬‬ ‫‪ 4.2‬مضامني الكلمة‬

‫‪115‬‬ ‫‪ 4.3‬إنشاء مضامني الكلمة‬

‫‪116‬‬ ‫‪ 4.4‬تقييم مضامني الكلمة‬

‫‪-172-‬‬
‫‪116‬‬ ‫‪ 4.5‬تطور مضامني الكلمة‬

‫‪118‬‬ ‫‪ 4.6‬تطبيقات مضامني الكلمة‬

‫‪118‬‬ ‫‪ -5‬خامتة‬

‫‪120‬‬ ‫املراجع‬

‫‪125‬‬ ‫الفصل اخلامس‪ :‬تقنيات الذكاء االصطناعي واملعاجلة احلاسوبية‬

‫‪125‬‬ ‫للمتالزمات اللفظية والرتاكيب االصطالحية‬

‫‪127‬‬ ‫ملخص الفصل‬

‫‪128‬‬ ‫‪ -1‬املقدمة‬

‫‪132‬‬ ‫‪ -2‬اإلطار النظري‬

‫‪132‬‬ ‫‪ 2.1‬تعريف الرتاكيب االصطالحية واملتالزمات اللفظية‬

‫‪134‬‬ ‫‪ 2.2‬اخلصائص اللغوية للرتاكيب االصطالحية‬

‫‪135‬‬ ‫‪ 2.3‬تصنيفات وأنواع الرتاكيب االصطالحية‬

‫‪139‬‬ ‫‪ -3‬مهام املعاجلة احلاسوبية للرتاكيب االصطالحية‬

‫‪141‬‬ ‫‪ 3.1‬مهمة االستخراج اآليل للرتاكيب االصطالحية‬

‫‪149‬‬ ‫‪ 3.2‬مهمة التعرف اآليل عىل الرتاكيب االصطالحية‬

‫‪154‬‬ ‫‪ 3.3‬الرتاكيب االصطالحية واملعاجم احلاسوبية‬

‫‪156‬‬ ‫‪ 3.4‬الرتاكيب االصطالحية وتطبيقات معاجلة اللغات‬

‫‪158‬‬ ‫‪ -4‬عقبات وحتديات‬

‫‪-173-‬‬
‫‪159‬‬ ‫‪ -5‬اخلامتة‬

‫‪160‬‬ ‫املراجع العربية‬

‫‪161‬‬ ‫املراجع األجنبية‬

‫‪-174-‬‬
‫مباحث لغوية ‪٦١‬‬
‫خوارزميات الذكاء االصطناعي‬
‫فــــــــي تحليــــل النــــص العـــربي‬
‫يُصدِ ر مركز امللك عبداهلل بن عبدالعزيز الدولي خلدمة اللغة العربية هذا الكتاب ضمن سلسلة‬
‫(مباحث لغوية)‪ ،‬وذلك وفق خطة عمل مقسمة إلى مراحل‪ ،‬ملوضوعات علمية رأى املركز حاجة املكتبة‬
‫اللغوية العربية إليها‪ ،‬أو إلى بدء النشاط البحثي فيها‪ ،‬واجتهد يف استكتاب نخبة من احملررين واملؤلفني‬
‫للنهوض بعنوانات هذه السلسلة على أكمل وجه‪.‬‬
‫ويهدف املركز من وراء ذلك إلى تنشيط العمل يف املجاالت التي تُـنَـ ّبه إليها هذه السلسلة‪ ،‬سواء أكان‬
‫العمل علميا بحثيا‪ ،‬أم عمليا تنفيذيا‪ ،‬ويدعو املركز الباحثني كافة من أنحاء العالم إلى املساهمة يف هذه‬
‫السلسلة‪.‬‬
‫وتو ّد األمانة العامة أن تشيد بجهد السادة املؤلفني‪ ،‬وجهد محرر الكتاب‪ ،‬على ما تفضلوا به من رؤى‬
‫وأفكار خلدمة العربية يف هذا السياق البحثي‪.‬‬
‫والشكر والتقدير الوافر ملعالي وزير التعليم املشرف العام على املركز‪ ،‬الذي يحث على كل ما من‬
‫شأنه تثبيت الهوية اللغوية العربية‪ ،‬ومتتينها‪ ،‬وفق رؤية استشرافية محققة لتوجيهات قيادتنا احلكيمة‪.‬‬
‫موجهة إلى جميع املختصني واملهتمني للتواصل مع املركز؛ لبناء املشروعات العلمية‪ ،‬وتكثيف‬
‫والدعوة ّ‬
‫اجلهود‪ ،‬والتكامل نحو متكني لغتنا العربية‪ ،‬وحتقيق وجودها السامي يف مجاالت احلياة‪.‬‬

‫األمني العام للمركز‬


‫أ‪ .‬د‪ .‬محمود إسماعيل صالح‬

‫‪-175-‬‬

You might also like