Professional Documents
Culture Documents
Information Theorey Hatem Alnajdi
Information Theorey Hatem Alnajdi
منبع المعلومات:
جهاز يعطي رموزا عشوائية من منبع ما .فمثال ،الكمرة الرقمية الموصولة مع حاسوب
تعطي رموزا اثنانية (بتات) من األبجدية }.{0, 1
نموذج نظام االتصاالت
تقديم
منبع
مر ّمز المعلومات مر ّمز مفكك ترميز مفكك ترميز معلومات
قناة مستعادة
المنبع القناة القناة المنبع
Source Channel Channel Source Reconstructed
Channel
coder coder decoder decoder Source
مرمز المنبع:
ير ّمز معلومات المنبع بطريقة أكثر إيجازا وذلك بحذف التكرار (الفائض )redundancy
منها .والغرض من ذلك تخفيض معدل البيانات Data Rateالتي سوف تُر َ
سل.
نموذج نظام االتصاالت
تقديم
منبع
مر ّمز المعلومات مر ّمز مفكك ترميز مفكك ترميز معلومات
قناة مستعادة
المنبع القناة القناة المنبع
Source Channel Channel Source Reconstructed
Channel
coder coder decoder decoder Source
مرمز القناة:
يُضيف مر ّمز القناة حشوا ( )redundancyإلى البيانات من أجل حماية البيانات المرسلة
من أخطاء النقل.
نموذج نظام االتصاالت
تقديم
منبع
مر ّمز المعلومات مر ّمز مفكك ترميز مفكك ترميز معلومات
قناة مستعادة
المنبع القناة القناة المنبع
Source Channel Channel Source Reconstructed
Channel
coder coder decoder decoder Source
القناة:
هي وسط نقل البيانات من المرسل إلى المستقبل ،ومن أمثلتها خط الهاتف والوصلة
الراديوية والليف الضوئي ..إلخ .تشتمل القناة على مرسل لإلشارة في طرف اإلرسال،
ومستقبل لها في طرف االستقبال.
نموذج نظام االتصاالت
تقديم
منبع
مر ّمز المعلومات مر ّمز مفكك ترميز مفكك ترميز معلومات
قناة مستعادة
المنبع القناة القناة المنبع
Source Channel Channel Source Reconstructed
Channel
coder coder decoder decoder Source
مثال:
ناتج رمي حجر النرد.
المتغيرات العشوائية واالحتماالت
أمثلة:
ناتج رمي النقدة.
تغيرات الطقس.
أسواق المال.
اإلشارة الكالمية.
اإلشارة التلفزيونية.
النصوص اللغوية الطبيعية.
الضجيج.
...
المتغيرات العشوائية واالحتماالت
االحتمال:probability
االحتمال 𝑝 هو قيمة تقع بين الصفر والواحد وتعبر عن إمكان حدوث حدث ما.
0≤𝑝≤1
:𝑝 = 0الحدث مستحيل الحدوث.
:𝑝 = 1الحدث أكيد الحدوث.
المتغيرات العشوائية واالحتماالت
أمثلة:
حجر النرد المتوازن :احتمال سقوط الحجر معطيا أحد أوجهه الستة:
𝑝𝑑𝑖𝑐𝑒 = 1Τ6
𝑝𝑖 = 1
𝑖=1
المتغيرات العشوائية واالحتماالت
أمثلة:
𝑝 𝑥 =1 +𝑝 𝑥 =2 +𝑝 𝑥 =3 +𝑝 𝑥 =4
1 1 1 1 1 1
+𝑝 𝑥 = 5 + 𝑝 𝑥 = 6 = + + + + + = 1
6 6 6 6 6 6
المتغيرات العشوائية واالحتماالت
االحتمال المتمم:
عرف االحتمال المتمم ،أو احتمال عدم
إذا حصل الحدث 𝐴 باحتمال يساوي )𝐴(𝑝 ،يُ َّ
حدوث الحدث بـ:
)𝐴(𝑝 𝑝 𝑛𝑜𝑡 𝐴 = 1 −
المتغيرات العشوائية واالحتماالت
مثال:
إذا كانت النقدة غير متزنة ،يمكن أن تقع على أحد الوجهين (الطرة مثال) بتواتر أكبر
من تواتر سقوطها الوجه اآلخر .ليكن = 0.6طرة = 𝑥 𝑝 .حينئذ يكون:
إذا رمينا نقدتين متزنتين ،كان احتمال أن تسقط االثنتان معا على الطرة:
1 1 1
= × = 𝐵 𝑃 𝐴 𝑃 = 𝐵 𝑃 𝐴,
2 2 4
المتغيرات العشوائية واالحتماالت
احتمال االختيار المتنافي :Mutually exclusive
إذا حصل الحدث 𝐴 باحتمال يساوي )𝐴(𝑃 ،والحدث 𝐵 باحتمال يساوي )𝐵(𝑃،
يعطى احتمال االختيار الخاص بهما بـ )𝐵 ∪ 𝐴(𝑃.
وإذا كان الحدثان متنافيان ،أي ال يحصالن معا (كرمي النقدة الذي يعطي أحد
الوجهين ال كليهما):
1 1 1
= 𝑃(1 𝑜𝑟 2) = +
6 6 3
ال يحصل الحدثان في آن واحد.
المتغيرات العشوائية واالحتماالت
:Not Mutually exclusive احتمال االختيار المتنافي
إذا كان الحدثان غير متنافيان ،أي يمكن أن يحصل أحدهما أو كالهما:
حين سحب ورقة شدة ،فإن احتمال كونها كبة أو صورة أو كليهما:
الحل:
الحاالت الممكنة الكلية لرمي النقدتين :طرة طرة ،طرة نقش ،نقش طرة ،نقش نقش.
الحاالت التي تحقق المطلوب هي جميع الحاالت ما عدا حالة طرة طرة.
أي لدينا 3حاالت من 4حاالت تحقق المطلوب.
الجواب.0.75 :
المتغيرات العشوائية واالحتماالت
أمثلة:
حين رمي نقدتين متزنتين ،ما احتمال الحصول على طرة واحدة على األقل؟
الجواب.0.75 :
حين رمي ثالث نقدات متزنة ،ما احتمال الحصول على طرتين على األقل؟
الجواب.0.5 :
حين رمي حجر نرد متزن ،ما احتمال الحصول على رقم أكبر من 4؟
الجواب.1Τ3 :
المتغيرات العشوائية واالحتماالت
أمثلة:
حين رمي حجري نرد متزنين ،ما احتمال الحصول على رقمين مجموعهما 9؟
الجواب.1Τ9 :
يوجد في صندوق كرتان حمراوان وكرتان زرقاوان .فإذا سحبت كرة وكانت حمراء،
ما هو احتمال سحب كرة حمراء مرة أخرى.
الجواب.1Τ3 :
المتغيرات العشوائية واالحتماالت
أمثلة:
ما احتمال أن يولد الشخص في يوم محدد من السنة؟
الجواب.1Τ365 :
الجواب :ليكن،
: 𝑝 = 1Τ365احتمال أن يولد الشخص في مثل هذا اليوم.
𝑝 : 1 −احتمال أال يكون الشخص قد ُو ِلد في مثل هذا اليوم.
𝑛 :عددكم.
𝑃 :احتمال أن يكون أحدكم قد ولد في مثل هذا اليوم.
: 𝑃′احتمال أال يكون أيا منكم قد ُو ِلد في مثل هذا اليوم.
المتغيرات العشوائية واالحتماالت
حينئذ:
′
𝑃𝑃 =1−
𝑃′ = (1 − 𝑝)𝑛−1
𝑃 = 1 − (1 − 𝑝)𝑛−1 لذا:
)𝑃 𝑛 = 1 − 839.3 log(1 −
الجواب:
)𝑛(𝑛−1
−
𝑒1− 𝑁×2
حيث .𝑁 = 365
https://en.wikipedia.org/wiki/Birthday_problem#Calculating_the_probability
المتغيرات العشوائية واالحتماالت
1
= 𝑝 :احتمال والدة الشخص في يوم من أيام السنة.
365
𝑛 :عدد األشخاص
𝑃 :احتمال أن يكون ثمة اثنين أو أكثر لهما نفس يوم الميالد.
: 𝑃′احتمال أن يكون لجميع األشخاص أيام ميالد مختلفة.
𝑃 = 1 − 𝑃′
المتغيرات العشوائية واالحتماالت
احتمال أن يكون للجميع أيام ميالد مختلفة 𝑃′يكافئ أال يكون للشخص الثاني نفس يوم
ميالد الشخص األول ،وأال يكون للشخص الثالث نفس يوم ميالد الشخص األول أو
الثاني ...وهكذا حتى الشخص رقم 𝑛 الذي يجب أن يكون يوم ميالده مختلفا عن أيام
ميالد جميع اآلخرين.
المتغيرات العشوائية واالحتماالت
احتمال أال يكون للشخص الثاني نفس يوم ميالد الشخص األول.(1 − 𝑝) :
احتمال أال يكون للشخص الثالث نفس يومي ميالد الشخصين األول والثاني هو:
)𝑝.(1 − 2
احتمال أال يكون للشخص الرابع نفس أيام ميالد األشخاص األول والثاني والثالث هو:
)𝑝.(1 − 3
احتمال أال يكون للشخص رقم )𝑛( نفس أيام ميالد الـ ) (𝑛 − 1شخصا اآلخرين
هو:
)𝑝).(1 − (𝑛 − 1
المتغيرات العشوائية واالحتماالت
ومنه يكون:
ويكون احتمال وجود شخصين على األقل لهما نفس يوم الميالد ضمن 𝑛
شخصا هو:
)𝑛(𝑛−1
−
𝑃 ≈ 1 − 𝑃′ > 1 − 𝑁𝑒 2
المعلومات الذاتية
المعلومات الذاتية والغموض
Self Information & Uncertainty
أمثلة:
• كلما كان احتمال حصول الحدث أقل ،انطوى ذلك على ريبة أكبر
وغموض أشد في حصوله.
• كلما كان الغموض أشد في الحدث ،انطوى ذلك على وجود معلومات
ذاتية أكبر فيه.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
مقدار المعلومات الذاتية المحتواة في رسالة تُع ِلم عن حدث 𝑥 هو تابع ما )𝑓(.
يعتمد على احتمال حصول الحدث فقط:
)𝑥(𝑃 𝑓 = 𝑥 𝐼
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
-1يجب أن يتناقص )𝑥(𝐼 مع ازدياد 𝑥 𝑃 :فكلما كان الحدث أعلى احتماال ،أعطانا حصوله
معلومات أقل .وعندما يكون احتمال حدوثه يساوي ،1فإن حدوثه ال يعطينا أي معلومة .أي:
𝑃(𝑥) = 1 → 𝐼 𝑥 = 0
𝑃(𝑥) < 1 → 𝐼 𝑥 > 0
عندما يكون معروفا أن الحدث سوف يحصل ،ال يقدم حدوثه أي معلومة جديدة.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
)𝑦(𝐼 𝐼 𝑥, 𝑦 = 𝐼 𝑥 +
1
ℎ 𝑥 = log 2 𝑡𝑖𝑏 = log 2 2 = 1
0.5
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
مثال:
حين رمي حجر نرد متزن ،يساوي احتمال الوقوع على الرقم ثالثة 𝟔 .𝟏Τويساوي الغموض
أو المعلومة الذاتية أو المفاجأة فيها:
1
𝑡𝑖𝑏 ℎ 𝑥 = −log 2 = 2.585
6
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
1
ℎ(3 𝑎𝑛𝑑 5) = 𝐼(3 𝑎𝑛𝑑 5) = −log 2 𝑡𝑖𝑏 = 5.17
36
لو نظرنا إلى الغموض في كل حجر على حدة وجدنا:
ℎ 3 𝑎𝑛𝑑 5 = ℎ 3 + ℎ 5
1 1
𝑡𝑖𝑏 = −log 2 − log 2 = 2.585 × 2 = 5.17
6 6
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الحاالت التي يكون فيها المجموع }4،3{ ،}3،4{ ،}5،2{ ،}2،5{ ،}6،1{ ،}1،6{ :7
6
= 𝑥 𝑃
36
1
𝑡𝑖𝑏 ℎ 𝑥 = −log 2 = 2.585
6
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
أمثلة:
• ما مقدار الغموض أو الريبة في إمكان هطول المطر في دمشق إذا علمنا أننا في
شباط؟
• ما مقدار الغموض أو الريبة في حصول حادث سير إذا كانت سرعة السارة أكبر
من 150كم في الساعة؟
• ما مقدار الغموض أو الريبة في إمكان حصولك على جائزة اليانصيب الكبرى إذا
لم تكن قد اشتريت ورقة يانصيب؟
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
الغموض في حصول الحدث 𝑥 إذا علمنا أن الحدث yقد حصل يعطى بـ:
𝑦 𝑥 𝑃 ℎ 𝑥 𝑦 = − log
حيث:
𝑦∩𝑥 𝑃
= 𝑦𝑥 𝑃
𝑦 𝑃
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
مثال:
ما مقدار الغموض في سحب بنت الكبة إذا علمنا أن الورقة المسحوبة هي ورقة كبة؟
طريقة حل أولى:
الورقة المسحوبة هي ورقة كبة .وبنت الكبة هي ورقة من 13ورقة:
1
= 𝑥 ℎ −log 2 𝑡𝑖𝑏 = 3.7 لذا:
13
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
طريقة حل ثانية:
𝑡𝑟𝑎𝑒𝑃 𝑞𝑢𝑒𝑒𝑛 ∩ ℎ
= 𝑡𝑟𝑎𝑒𝑃 𝑞𝑢𝑒𝑒𝑛 ℎ
𝑡𝑟𝑎𝑒𝑃 ℎ
1
𝑡𝑟𝑎𝑒𝑃 𝑞𝑢𝑒𝑒𝑛 ∩ ℎ 52 4
ℎ 𝑞𝑢𝑒𝑒𝑛 ℎ𝑒𝑎𝑟𝑡 = −log 2 = −log 2 = −log 2
𝑡𝑟𝑎𝑒𝑃 ℎ 1 52
4
𝑡𝑖𝑏 = 3.7
قلصت معرفة أن الورقة المسحوبة هي ورقة كبة الغموض في سحب بنت الكبة
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
مثال:
احتمال ظهور حرف األلف في النصوص العربية يساوي %15 :تقريبا.
احتمال ظهور حرف الالم في النصوص العربية يساوي %9 :تقريبا.
ما مقدار الغموض في كون الحرف التالي هو الم إذا كان الحرف السابق هو ألف؟
الم ∩ ألف 𝑃
= ألف الم 𝑃
الم 𝑃
النسبة المئوية النسبة المئوية الحرف النسبة المئوية الحرف الحرف
0.81 ص 2.83 ب 18.78 الفراغ
0.8 ط 2.61 ع 15.45 ا
0.74 خ 2.28 ف 9.22 ل
0.72 ش 2.19 د 6.5 ي
0.61 ض 1.78 ق 5.13 هـ
0.5 ث 1.75 س 4.78 م
0.47 ز 1.72 ك 4.51 و
0.34 غ 1.6 ح 4.41 ن
0.237 ظ 1.15 ج 3.81 ت
0.884 ذ 3.37 ر
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
ال تظهر األحرف في اللغات الطبيعية ،ومنها اللغة العربية ،بنفس االحتمال .إال أننا يمكن أن
نعتبر أن احتمال ظهور كل من األلف والالم (كل على حدة) يساوي وسطي احتمالي ظهورهما
الفعليين تقريبا .أي:
0.15+0.9
≈ ألف ∩ الم 𝑃 = 0.12
2
ألف ∩ الم 𝑃 0.12
≈ −log 2ألف الم ℎ = −log 2 𝑡𝑖𝑏 = 0.32
ألف 𝑃 0.15
غموض منخفض!
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
الغموض المشروط
تقريب
خشن مثال:
احتمال ظهور حرف األلف في النصوص العربية يساوي %15 :تقريبا.
احتمال ظهور حرف الذال في النصوص العربية يساوي %0.88 :تقريبا.
ما مقدار الغموض في كون الحرف التالي هو ذال إذا كان الحرف السابق هو ألف؟
0.0088 + 0.15
≈ ألف ∩ ذال 𝑃 ≈ 0.08
2
ألف ∩ الل 𝑃 0.08
≈ −log 2ألف ذال ℎ = −log 2 𝑡𝑖𝑏 ≈ 0.9
ألف 𝑃 0.15
ازداد الغموض.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
𝑥
𝑥 𝐼 المعلومات المشتركة
𝑦 mutual information
𝑦 𝐼 𝑥,
𝑦 𝐼
𝑦
• المعلومات المشتركة بين متغيرين عشوائيين هي مقياس العتماد كل منهما
على اآلخر .أي إنها تمثل مقدار المعلومات التي نحصل عليها عن متغير
عشوائي من خالل معرفتنا بالمتغير اآلخر.
• تعبر المعلومات المشتركة عن انخفاض الغموض في حدث ما نتيجة للمعلومات
المشتركة التي يوفرها حدث آخر.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
مثال:
• في غوغل مثال ،تُستعمل المعلومات المشتركة بين النصوص ومضامينها
إلعطاء أفضل نتائج البحث.
• حين رمي حجر النرد ،يمكن اعتبار رمي الحجر حدثا أوال ،وكون النتيجة
مفردة حدثا ثانيا .ومن الواضح أن ثمة معلومات مشتركة بين الحدثين.
• من صورة رنين مغنطيسي وصورة إيكو يمكن تشخيص مرض.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
𝑦 𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑥 + ℎ 𝑦 − ℎ 𝑥,
𝑦 𝑥 =ℎ 𝑥 −ℎ
𝑥 𝑦 =ℎ 𝑦 −ℎ
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
مثال:
من مثالي بنت الكبة السابقين ،ما المعلومات المشتركة بين سحب بنت كبة وكون الورقة
المسحوبة ورقة كبة تساوي :
المعلومات المشتركة
المعلومات المشتركة النقطية
𝑦 𝑥 𝑃𝑀𝐼(𝑥, 𝑦) = ℎ 𝑥 − ℎ
1
ℎ 𝑥 = − log 𝑡𝑖𝑏 = 5.7
52
1
𝑦 𝑃 𝑥, 52 4
ℎ 𝑥 𝑦 = −log 2 = −log 2 = −log 2 𝑡𝑖𝑏 = 3.7
𝑦 𝑃 1 52
4
𝑡𝑖𝑏 𝑃𝑀𝐼 𝑥, 𝑦 = 5.7 − 3.7 = 2
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
إذا كان الحدثان 𝒙 و 𝒚 مستقالن عن بعضهما:
)𝑦(ℎ 𝑥, 𝑦 = ℎ 𝑥 + ℎ
ولذا:
)𝑦(𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑥 + ℎ 𝑦 − ℎ 𝑥 − ℎ
=0
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
مثال:
ما مقدار المعلومات المشتركة بين وقوع حجر نرد متزن في رمية أولى على 2
وفي رمية ثانية على 2أيضا؟
نظرا إلى أن نتائج رمي حجر النرد مستقلة بعضا عن بعض ،تساوي المعلومات
المشتركة بين نتائج الرميات المتتالية صفرا.
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
مثال:
في نص عربي مكون من مليون كلمة ،ظهر الكلمة ’في‘ 276مرة ،وظهرت
الكلمة السنة 136مرة .وظهرت الكلمتان معا 96مرة .ما مقدار المعلومات
المشتركة بين ظهور الكلمتين؟
276
= 𝑥 𝑃 احتمال ظهور ’في‘:
1000000
136
= 𝑦 𝑃 احتمال ظهور ’السنة‘:
1000000
96
= 𝑦∩𝑥 𝑃 احتمال تقاطع الظهور:
1000000
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
𝑦 𝑃 𝑥, 96
= 𝑦𝑥 𝑃 =
𝑦 𝑃 136
𝑦 𝑃 𝑥, 96
= 𝑥𝑦 𝑃 =
𝑥 𝑃 276
ℎ 𝑥 = − log 𝑃 𝑥 = − log 276 + 19.93
ℎ 𝑦 = − log 𝑃 𝑦 = − log 136 + 19.93
96
ℎ 𝑥 𝑦 = − log 𝑃 𝑥 𝑦 = −log
136
96
ℎ 𝑦 𝑥 = − log 𝑃 𝑦 𝑥 = −log
276
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
المعلومات المشتركة
المعلومات المشتركة النقطية
المعلومات المشتركة
المعلومات المشتركة النقطية
مثال:
في المثال السابق ،لو ظهرت الكلمتان مع مرتين فقط ،ما مقدار المعلومات
المشتركة حينئذ؟
نبدل العدد 96في الحل السابق بالعدد :2
𝑦 𝑥 𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑥 − ℎ
2
= − log 276 + 19.93 + log
136
2
= 19.93 + log 𝑡𝑖𝑏 = 5.7
136×276
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
ملخص
المعلومات الذاتية 𝑥 𝐼:
كمية المعلومات التي يمكن أن يحملها أو يُعبّر عنها المتغير𝑥 .كلما كان المتغير
العشوائي غامضا خبَّأ معلومات أكثر يمكن أن تنجلي حين حدوثه .وكلما كان أكثر
جالء انطوى على معلومات أقل .والمتغير الذي ال يتخذ سوى قيمة واحدة ال يعبر
عن أي معلومة جديدة.
1
𝐼 𝑥 = log 𝑥 𝑃 = − log
𝑥 𝑃
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
ملخص
المعلومات النقطية المشتركة )𝑦:𝑃𝑀𝐼(𝑥,
مقدار المعلومات التي نحصل عليها عن متغير عشوائي 𝑥 من خالل معرفتنا بمتغير
آخر 𝑦 في حدث منفرد:
𝑦 𝑥 𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑥 − ℎ
𝑥 𝑦 𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑦 − ℎ
𝑦 𝑃𝑀𝐼 𝑥, 𝑦 = ℎ 𝑥 + ℎ 𝑦 − ℎ 𝑥,
𝑦 ℎ 𝑥,𝑦 = ℎ 𝑥 𝑦 + ℎ
𝑥 ℎ 𝑥,𝑦 = ℎ 𝑦 𝑥 + ℎ
مدخل مبسط إلى مفاهيم نظرية المعلومات األساسية
ملخص
الغموض المشروط:
𝐻 𝑥1 , 𝑥2 , 𝑥3 = 𝑝 𝑥1 ℎ 𝑥1 + 𝑝 𝑥2 ℎ 𝑥2 + 𝑝 𝑥3 ℎ 𝑥3
1 1 1
= ℎ 𝑥1 + ℎ 𝑥2 + ℎ 𝑥3
2 3 6
1 1 1
𝑡𝑖𝑏 𝐻 𝑋 = × 1 + × 1.585 + × 2.585 = 1.46
2 3 6
اإلنتروبي
اإلنتروبي:
هو القيمة الوسطى للغموضات في قيم المتغير العشوائي.
ومن الواضح أنه عندما يتخذ القالب وضعية واحدة فقط ،أي عندما يكون:
𝑝1 = 1, 𝑝2 = 0
فإنه ال يخزن أي شيء:
𝐻 = −0.78 log 0.78 − 0.12 log 0.12 − 0.1 log 0.1
𝑙𝑜𝑏𝑚𝑦𝑠= 0.28 + 0.367 + 0.332 = 0.98 𝑏𝑖𝑡/
اإلنتروبي
لو كان استعمال رموز المثال السابق موزعا بالتساوي ،لكان مقدار المعلومات التي يحملها
الرمز الواحد:
1 1
𝑡𝑖𝑏 𝐻 = −3 × log = 1.585
3 3
هذا يعني أنه من أجل استغالل طاقة الرموز على حمل المعلومات استغالال كامال ،يجب
استعمالها باحتماالت متساوية.
اإلنتروبي
مثال:
أربع آالت في معمل إنتاجايتها على التتالي هي .%10 ،%20 ، %30 ،%40 :ونرغب في
التعبير عن هذه اإلنتاجية بعدد من البتات التي تُخزن في ذاكرة .ما هو حجم الذاكرة الالزمة
لخزن البيانات المعبرة عن حالة اآلالت اإلنتاجية؟
𝐻 = −0.4 log 0.4 − 0.3 log 0.3 − 0.2 log 0.2 − 0.1 log 0.1
𝑡𝑖𝑏 = 0.53 + 0.52 + 0.46 + 0.33 = 1.84
لو كانت اإلنتاجية متساوية الحتجنا إلى:
1 1
𝑡𝑖𝑏 𝐻 = − × 4 log = 2
4 4
كمية المعلومات اإلنتروبي
1
= 𝑝) ،فإن اإلنتروبي (
إذا اتخذت المنظومة 𝐿 حالة مختلفة متساوية االحتمال
𝐿
الخاص بها يعطى بـ:
𝐿 𝐻 = log
وإذا تألفت المنظومة من 𝑛 متغيرا اثنانيا 𝑋 = 𝑥1 ,𝑥2 , ⋯ 𝑥𝑛 :حيث
𝑛
،𝑥𝑖 ∈ 0,1اتخذت 2حالة مختلفة .وإذا ظهرت جميع تلك الحاالت
باحتماالت متساوية ،نقول أن المنظومة يمكن أن تحمل كمية من المعلومات تساوي:
𝑡𝑖𝑏 𝑛 = 𝐼
اإلنتروبي المشترك joint entropy اإلنتروبي
) 𝑗𝑦(𝑝 = 𝑗𝑦 = 𝑌 𝑃
) 𝑗𝑦 𝑃 𝑋 = 𝑥𝑖 ∩ 𝑌 = 𝑦𝑗 = 𝑝(𝑥𝑖 ,
اإلنتروبي المشترك اإلنتروبي
عرف اإلنتروبي المشترك لهما بـ:
يُ َّ
𝑛 𝑚
اإلنتروبي الشرطي:
يمثل كمية المعلومات الالزمة لوصف نتيجة متحول عشوائي حين معرفة قيمة
متحول عشوائي آخر.
اإلنتروبي الشرطي اإلنتروبي
عرف اإلنتروبي الشرطي للمتغيرين ) (X,Yبمتوسط قيم اإلنتروبي الشرطي ألحدويُ َّ
المتغيرين عند قيم المتغير اآلخر:
𝑚
𝑗𝑥 = 𝑋 𝑖𝑦 = 𝑌 𝑃 𝐻 𝑌 𝑋 = 𝑥𝑗 = − 𝑃 𝑌 = 𝑦𝑖 𝑋 = 𝑥𝑗 log
𝑖=1
اإلنتروبي الشرطي اإلنتروبي
وبذلك يكون:
𝑛 𝑚
المعلومات المشتركة:
تعبر المعلومات المشتركة بين متحولين عشوائيين عن االعتماد المتبادل بينهما ،أو
ِّ
عن مقدار اعتماد كل منهما على اآلخر .وهي تمثل مقدار انخفاض إنتروبي 𝑋
نتيجة لمعرفة 𝑌 ،والعكس صحيح.
المعلومات المشتركة اإلنتروبي
𝑋 𝐻= 𝑌𝑋 𝐻
𝐼 𝑋,𝑌 = 0
𝑌 𝐻𝐻 𝑋,𝑌 = 𝐻 𝑋 +
المعلومات المشتركة
مثال:
صندوق فيه كرتان حمراوان وثالث كرات خضراء .ما مقدار المعلومات المشتركة
بين سحبين متتاليين؟ ال تُعاد الكرة التي تُسحب في المرة األولى إلى الصندوق.
دع 𝑥 يمثل السحب األول ،و 𝑦 يمثل الثاني .و 𝑟 يمثل أحمر ،و 𝑔 يمثل أخضر.
المعلومات المشتركة
2 3
= 𝑟=𝑋 𝑃 = 𝑔=𝑋 𝑃
5 5
𝑟=𝑋𝑟=𝑌 𝑃 𝑟=𝑋 𝑃= 𝑟=𝑌 𝑃
𝑔 = 𝑋 𝑟 = 𝑌 𝑃 𝑔 = 𝑋 𝑃+
2 1 3 1
× = × +
5 4 5 2
2
=
5
المعلومات المشتركة
𝑟=𝑋𝑔=𝑌 𝑃 𝑟=𝑋 𝑃= 𝑔=𝑌 𝑃
𝑔 = 𝑥 𝑔 = 𝑌 𝑃 𝑔 = 𝑋 𝑃+
2 3 3 1
× = × +
5 4 5 2
3
=
5
المعلومات المشتركة
2 1 1
𝑟 = 𝑌𝑃 𝑋 = 𝑟 , = × =
5 4 10
2 3 3
𝑔 = 𝑦𝑃 𝑥 = 𝑟 , = × =
5 4 10
3 1 3
𝑟 = 𝑦𝑃 𝑥 = 𝑔 , = × =
5 2 10
3 1 3
𝑔 = 𝑦𝑃 𝑥 = 𝑔 , = × =
5 2 10
المعلومات المشتركة
𝑌𝐼 𝑋,𝑌 = 𝐻 𝑋 + 𝐻 𝑌 − 𝐻 𝑋,
𝑌 𝐼 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 − 𝐻 𝑋,
𝑡𝑖𝑏 𝐼 𝑋, 𝑌 = 0.97 × 2 − 1.892 = 0.048
مثال:
يوجد في سلة عدد كبير جدا من قصاصات الورق التي ُكتب على كل منها واحد من
األرقام من 1حتى .6سحب عمر أربع قصاصات ورتبها جنبا إلى جنب وأخفاها
عن سلمى .طبعا يمكن للقصاصات األربعة أن تحمل أي تشكيلة من أربعة أرقام:
،5266أو ،3333مثال .وعلى سلمى أن تحزر تشكيلة األرقام التي أخفاها عمر.
وبعد تقديم سلمى لمقترحها ،يُعلمه عمر بعدد المنازل المتطابقة دون تحديدها.
اإلنتروبي
.1ما مقدار االرتياب الوسطي في التشكيلة التي اختارها عمر؟
.2أول اقتراح تقدمه سلمى لتشكيلة األرقام يتضمن أرقاما متماثلة من قبيل
.2222ماذا يصبح مقدار االرتياب الوسطي في التشكيلة التي اختارها عمر
بعد إجابته على مقترح سلمى؟
اإلنتروبي
.1من الواضح أن التشكيلة التي يحصل عليها عمر هي واحدة من 64 = 1296
تشكيلة ممكنة .ونظرا إلى أن عدد القصاصات في السلة كبير جدا ،تكون
احتماالت سحب أي من تلك التشكيالت متساوية ويساوي كل منها:
1
=𝑝
1296
لذا يساوي االرتياب الوسطي في التشكيلة 𝑋 التي اختارها عمر:
𝑡𝑖𝑏 𝐻(𝑋) = log 1296 = 10.34
اإلنتروبي
.2إجابات عمر هي أعداد ،ويمكن تمثيلها بمتغير عشوائي 𝑌 يأخذ القيم التالية:
• ال يوجد أي تطابق.𝑌 = 0 :
• يوجد تطابق واحد.𝑌 = 1 :
• يوجد تطابقان.𝑌 = 2 :
• يوجد ثالثة تطابقات.𝑌 = 3 :
• يوجد أربعة تطابقات.𝑌 = 4 :
وتمثل إجابات عمر تخفيضا لالرتياب في التشكيلة المسحوبة ،وقيمة هذا التخفيض
هي المعلومات الوسطية المشتركة بين 𝑋 :و 𝑌:
𝑋 𝑌 𝐻 𝐼 𝑋, 𝑌 = 𝐻 𝑋 − 𝐻 𝑋 𝑌 = 𝐻 𝑌 −
اإلنتروبي
عرفت التشكيلة التي سحبهاونظرا إلى أن معرفة 𝑋 تنطوي على معرفة 𝑌 (إذا ُ
عمر سوف يصبح عدد التطابقات معروفا بعد مقترح سلمى) .ولذا يساوي االرتياب
في 𝑌 حين معرفة 𝑋 الصفر:
𝐻 𝑌𝑋 =0
𝑌 𝐻 = 𝑌𝐼 𝑋, ومنه:
تعني القيمة 𝑌 = 4أن التشكيلة التي اقترحتها سلمى هي التشكيلة التي سحبها
عمر ،لذا يساوي احتمالها:
1
= 𝑃 𝑌=4
1296
اإلنتروبي
من أجل القيمة ،Y = 3ثمة ثالثة مواقع متطابقة وموقع واحد غير متطابق.
بافتراض أن المواقع الثالثة اليسرى كانت متطابقة ،يمكن أن يكون في الموقع
الرابع (األيمن) واحد من خمسة أرقام مختلفة ،6 − 1 :وهذا يعطي إمكانية لخمس
5
تشكيالت احتمالها يساوي :
1296
ونظرا إلى أن الموقع غير المتطابق يمكن أن يكون في أي من المواقع األربعة،
فإن:
5 20
×𝑃 𝑌 =3 =4 =
1296 1296
اإلنتروبي
وبمحاكمة مشابهة ،نجد أن:
150
= 𝑃 𝑌=2
1296
500
= 𝑃 𝑌=1
1296
625
= 𝑃 𝑌=0
1296
اإلنتروبي
ومن ثم:
𝑌 𝐻
1 1 20 20 150 150 500 500
=− log − log − log − log
1296 1296 1296 1296 1296 1296 1296 1296
625 625
− log
1296 1296
وتكون المعلومات المشتركة:
𝑡𝑖𝑏 𝐼 𝑋, 𝑌 = 𝐻 𝑌 ≈ 1
ويصبح االرتياب الشرطي الوسطي:
𝑡𝑖𝑏 𝐻 𝑋, 𝑌 ≈ 10.34 − 1 ≈ 9.34
Source Coding ترميز المنبع
اإلنتروبي واللغة
Source Coding ترميز المنبع
اإلنتروبي واللغة
في الواقع ،اللغة العربية غنية ومعقدة من حيث محارفها .فللهمزة عدة أشكال
بحسب موقعها من الكلمة وتبعا لحركتها ،وقد اعتُبرت جميعها هنا مع األلف
حرفا واحدا .واعتُبرت التاء المربوطة هاء ،واعتُبرت األلف المقصورة ياء .أي
إن عدد المحارف الكلي يساوي 29محرفا تتضمن الفراغ.
اإلنتروبي واللغة العربية ترميز المنبع
ليكن احتمال ظهور الحرف رقم iمن األبجدية 𝑖𝑝 .تعطى كمية المعلومات التي
يمكن للحرف الواحد أن يحملها بإنتروبي اللغة:
29
سؤال:
• لنفترض أنك نويت أن تُنشئ لغة خاصة بك ،ما هو العدد األصغري لحروف
األبجدية الذي يمكن أن تختاره؟
• لماذا اخترت هذا العدد؟
اإلنتروبي واللغة العربية ترميز المنبع
النسبة المئوية النسبة المئوية الحرف النسبة المئوية الحرف الحرف
0.81 ص 2.83 ب 18.78 الفراغ
0.8 ط 2.61 ع 15.45 ا في اللغة الطبيعية ،ال تظهر
0.74 خ 2.28 ف 9.22 ل جميع المحارف بنفس
0.72 ش 2.19 د 6.5 ي االحتمال .فالالم واأللف
0.61 ض 1.78 ق 5.13 هـ يتكرران كثيرا في العربية،
0.5 ث 1.75 س 4.78 م في حين أن حرف الظاء
0.47 ز 1.72 ك 4.51 و قليل التكرار .وهذا واضح
0.34 غ 1.6 ح 4.41 ن من المثال المجاور.
0.237 ظ 1.15 ج 3.81 ت
0.884 ذ 3.37 ر
اإلنتروبي واللغة العربية ترميز المنبع
لذا فإن القيمة الوسطية الحقيقية إلنتروبي العربية تنخفض إلى نحو 2.4بت
للحرف ،وتنخفض في حالة اإلنكليزية إلى نحو 2.3بت للحرف.
لماذا؟
اإلنتروبي واللغة ترميز المنبع
اعتمادا على هذه الحقائق تتنبأ محررات النصوص (في الهاتف مثال)
بالكلمة التالية أثناء تحريرك لنص ما .وغوغل يفعل الشيء نفسه.
لقد ُ
ض ّمنت هذه الحقائق في الذكاء الصنعي الذي يقوم بالتنبُّؤ.
إنتروبي المنبع ذي الذاكرة ترميز المنبع
نسمي المنبع الذي يعتمد فيه ظهور الرمز التالي على الرمز الذي
سبقه بالمنبع ذي الذاكرة . with memoryبالمقارنة ،نسمي المنابع
التي تظهر فيها الرموز مستقلة تماما عن بعضها بالمنابع العديمة الذاكرة
.memoryless
إنتروبي المنبع ذي الذاكرة ترميز المنبع
لنرمز للحرف الذي يظهر في الخطوة رقم nبـ 𝑛𝑈 .حينئذ يعطى اإلنتروبي الوسطي لهذا
المنبع عندما ∞ → 𝑛 بـ:
𝐶
𝐶 𝑖 = 𝐴, 𝐵,
إنتروبي المنبع ذي الذاكرة ترميز المنبع
الحل:
أوال ،سوف نحسب .P
نظرا إلى أن أول حرف يظهر في خرج المنبع هو ،Bتعطى مصفوفة احتماالت الحالة
االبتدائية بـ:
𝑃(0) = 0 1 0
أي إن:
𝑃(2) = 0 1 0 𝑇2
لكن:
𝐶 𝑖 = 𝐴, 𝐵,
لو لم تكن الرموز الالحقة تعتمد على الرموز السابقة ،أي لو كانت مستقلة بعضا عن بعض،
وكانت احتماالت ظهورها متساوية(تساوي ،)1Τ3لكان اإلنتروبي الوسطي للمنبع:
الفائض الصفري:
يعني الفائض الصفري في اللغة أن جميع التراكيب الممكن تكوينها بواسطة
أحرفها هي تراكيب لغوية فعلية .فإذا حصل خطأ في حرف لسبب ما (أثناء
النقل على خط االتصال مثال) ،تغير معنى الكلمة أو الجملة.
الفائض في اللغة ترميز المنبع
ماذا يعني الفائض في اللغة؟
يمثل الفائض غير الصفري دائما هدرا في إمكانات المنظومة على التعبير
عن المعلومات ،وهذا الهدر يمكن أن يكون:
• مفيدا في الحاالت التي تتطلب حماية من األخطاء.
• ضارا في الحاالت األخرى.
ENTROPY RATE معدل اإلنتروبي ترميز المنبع
فيما تقدم ،اقتصر اهتمامنا على إنتروبي المنبع للرمز .فإذا كان المنبع يعطي
نعرف معدل اإلنتروبي بـ:الرموز بمعدل 𝑈 𝐷 رمزا في الثانية ،فإننا ّ
𝑈 𝐷 𝑈 ∞𝐻 = 𝐻 ′
واحدة معدل اإلنتروبي:
𝑐𝑒𝑠𝑏𝑖𝑡Τ𝑠𝑦𝑚𝑏𝑜𝑙 × 𝑠𝑦𝑚𝑏𝑜𝑙Τ𝑠𝑒𝑐 = 𝑏𝑖𝑡Τ
• العكس ليس صحيحا ،إذ يمكن للرماز أال يكون ذا بادئة وأن يكون في نفس
الوقت وحيد فك الترميز.
• الرماز ذو البادئة هو رماز آني ،والعكس صحيح.
مسألة ترميز المنبع ترميز المنبع
𝟏 ≤ 𝒊𝒏 𝒔−
𝟎=𝒊
مسألة ترميز المنبع ترميز المنبع
مثال:
في المثالين السابقين كان لدينا:
𝑠 = 2, 𝑟 = 4, 𝑛0 = 1, 𝑛1 = 2, 𝑛2 = 3, 𝑛3 = 3
ومن ثم:
𝑖𝑛𝑟−1 −
𝑠 σ𝑖=0 = 2−1 + 2−2 + 2−3 +2−3 =1
مسألة ترميز المنبع ترميز المنبع
إذن ،يمكن تكوين رمازات ذات بادئة بهذه المواصفات ،ومثالها هو:
𝐴 ← 1 ; 𝐵 ← 01 ; 𝐶 ← 000 ; 𝐷 ← 001
هذا ال يعني أن كل الرمازات التي لها نفس المواصفات يمكن أن تكون ذات بادئة
حتما .ومثال ذلك الرماز التالي:
𝐴 ← 1 ; 𝐵 ← 01 ; 𝐶 ← 010 ; 𝐷 ← 001
ففي كال الحالتين تتحقق نفس المواصفات:
𝑠 = 2, 𝑟 = 4, 𝑛0 = 1, 𝑛1 = 2, 𝑛2 = 3, 𝑛3 = 3
مسألة ترميز المنبع ترميز المنبع
تم ّكن خوارزمية هفمان من إنشاء ترميز ذي بادئة باستعمال شجرة متفرعة اثنانيا
،binary treeوتكون كلمات الرماز األعلى احتماال أقصر طوال ،واألقل احتماال
أكبر طوال.
ضغط المعلومات ترميز المنبع
• خوارزمية هفمان.
• خوارزمية ( LZ 78وضعها ) Jacob Ziv and Abraham Lempelفي عام
.1978
• الخوارزمية دفليت DEFLATEهي تطوير مستمثل لها من أجل زيادة سرعتها،
وهي مستعملة في .PKZIP, Gzip, PNG
ضغط المعلومات ترميز المنبع
خوارزميات ضغط المعلومات الفقدية :Lossy compression
يُقبل في هذه الطرائق فقد بعض المعلومات غير الهامة بغية تقليل حجم الذاكرة
المستعملة للخزن .على سبيل المثال ،في حالة الصورة ،تتصف عين البشر بكونها
أشد حساسية لالختالفات في السطوع منها لأللوان .لذا تعمل خوارزمية JPEGفي
جزء منها على بتر البتات غير األساسية.
ضغط المعلومات ترميز المنبع
خوارزميات ضغط المعلومات الفقدي :تحويل فورييه المقطع
)Discrete Cosine Transform (DCT
• تحويل رياضياتي لتمثيل اإلشارة مشتق من تحويل فورييه.
• يُدرس عادة في إطار معالجة اإلشارة ،وخاصة إشارة الصورة.
• يعطي هذا التحويل في خرجه عينات (طيفية!) تحتوي الكبيرة منها على المعلومات
األساسية عن الصورة ،في حين أن العينات ذات القيم الصغيرة ال تحتوي على
معلومات مهمة ،ولذلك تُهمل ،وهذا يؤدي إلى تقليص كمية المعلومات المتبقية.
وبعد إجراء التحويل المعاكس ،تُستعاد الصورة مع تشويه بسيط يكاد ال يُرى.
• هذا التحويل هو لب خوارزمية الضغط MP3و .JPEG
ضغط المعلومات ترميز المنبع
خوارزميات ضغط المعلومات الفقدي :الفوكودر Vocoder
• يُستعمل لضغط اإلشارة الكالمية.
• يعتمد على استخالص بارامترات تركيب اإلشارة الكالمية من اإلشارة األصلية،
وبعد نقلها ،يستعمل تلك البارامترات لتركيب اإلشارة الكالمية من جديد.
• يتصف الكالم الناتج بعد التركيب بكونه آليا (روبوتيا).
• كلما كانت نسبة الضغط أكبر أصبحت صفة اآللية أوضح .والعكس صحيح.
• يمكن بهذه الطريقة الوصول إلى نسب ضغط تصل حتى 26مرة.
• الطريقة مستعملة في الهاتف الخلوي حيث تصل نسبة الضغط إلى 4مرات.
Channel Coding ترميز القناة
Reconstructed
Information
Information
Source
قناة االتصال ترميز القناة
سلة
معلومات مرمزة مر َ معلومات مرمزة
قناة
مضججة مستقبلة
قناة االتصال:
سلكين نحاسيين (دارة هاتفية) ،ليف ضوئي ،وصلة السلكية بالترددات المتوسطة
والقصيرة والعالية والمكروية ،وصلة فضائية.
Noise قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
الضجيج:
إشارة عشوائية تدخل على اإلشارة جمعا أو ضربا من مصدر خارجي .وأهم أنواعه:
الضجيج الغوصي ،الضجيج الرشقي ،ضجيج التكميم ،التسميع ،الصدى ،طنين
الخمسين هرتز.
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
الضجيج الغوصي:
ضجيج حراري يأتي من األجهزة اإللكترونية .يعتبر ألطف أنواع الضجيج وأسهلها
معالجة من الناحية النظرية ألن نموذجه الرياضياتي معطى بتابع التوزع االحتمالي
الغوصي .يسمى أيضا بالضجيج الطبيعي ،Normal Noiseألن التوزع الغوصي
يسمى بالتوزيع الطبيعي .ويسمى أيضا بالضجيج األبيض ألت طيفه يمتد على كل
الترددات ∞. −∞,
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
الضجيج الرشقي:
• ضجيج يأتي من البيئة المحيطة ،ويتخذ شكل رشقات غير منظمة وليس لها
نموذج رياضي محدد.
• من أمثلتها البرق واإلشارات الناجمة عن شمعات االشتعال في محركات
االحتراق الداخلي ،و ُمق ِلعات مصابيح النيونات ومجففات الشعر (السيشوار)
وغيرها.
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
ضجيج التكميم:
• ضجيج يحصل حين تحويل اإلشارة التماثلية إلى إشارة رقمية ،وينجم عن تدوير
قيم عينات اإلشارة الحقيقية إلى قيم مستويات التكميم.
• مدروس ومعروف.
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
التسميع:
• يأتي من تداخل قنوات االتصال فيما بينها.
• يحصل التسميع في القنوات الراديوية بسبب تراكب أطياف القنوات المختلفة ،أو
عدم ترشيحها جيدا وإبقائها ضمن الحزمة الترددية المخصصة لها.
• يحصل التسميع في الدارات الهاتفية السلكية نتيجة للتحريض الكهرمغنطيسي بين
األسالك.
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
الصدى:
• يأتي من انعكاس اإلشارة عن نهايات مقاطع دارة االتصال المختلفة .يكون
واضحا جدا في الوصالت الفضائية بسبب المدة الطويلة التي يستغرقها انتشار
اإلشارة إلى القمر الصنعي.
قناة االتصال :الضجيج ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة مضججة مستقبلة
َ
هم Hum طنين الخمسين هرتز:
يحصل نتيجة لتسرب إشارة شبكة الكهرباء العامة إلى خط االتصال ،وغالبا ما
يال َحظ في الخطوط الهاتفية السلكية التي تختلف مواصفاتها عن المواصفات القياسية.
Distortion قناة االتصال :التشويه ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة
مضججة مستقبلة
تشويه
التشويه:
يحصل بسبب الخطية تابع تحويل قناة االتصال ،وينجم عن التخميد والتخميد المطالي
والتشويه الطوري والخطية العناصر اإللكترونية والخفوت والخفوت الترددي
االنتقائي.
قناة االتصال :التشويه ترميز القناة
ضجيج
معلومات معلومات مرمزة
سلة
مرمزة مر َ قناة
مضججة مستقبلة
تشويه
التخميد :attenuation
يحصل التخميد نتيجة لضياع طاقة اإلشارة أثناء نقلها في مقاومة األسالك األومية أو
في عملية االنتشار الكهرمغنطيسي .ينعكس التخميد على شكل انخفاض في نسبة
اإلشارة إلى الضجيج.
قناة االتصال :التشويه ترميز القناة
ضجيج
معلومات معلومات مرمزة Att.
سلة
مرمزة مر َ قناة
مضججة مستقبلة
تشويه
fr
fr
V
أثناء النقل ،يؤدي الضجيج إلى حصول أخطاء في اإلشارة المكشوفة في المستقبل،
أي أن الـ 0يُكشف على أنه ،1ويُكشف الـ 1على أنه .0فما هو معدل نقل
المعلومات حينئذ إذا كان معدل الخطأ %1؟
تابع االلتباس ترميز القناة
بالتأكيد ،سوف يكون المعدل أقل من 1000بت في الثانية بسبب وجود نسبة خطأ
تساوي .%1هذا يوحي بأن عدد األخطاء في الثانية يساوي ،10ومن ثم يكون
المعدل 990بت في الثانية.
لكن هذا غير صحيح ألنه ال يأخذ في الحسبان جهل المستقبل بمواقع األخطاء.
تابع االلتباس ترميز القناة
في الحالة المتطرفة عندما يكون الضجيج كبيرا بحيث تصبح الرموز المستقبلة
مستقلة تماما عن الرموز المرسلة ،يكون احتمال استقبال 1أو 0مساويا
𝟐 𝟏Τبقطع النظر عن الرموز المرسلة .ومن ث َ َّم ،يكون نصف الرموز
المستقبلة صحيحا بالمصادفة البحتة ،ونقول حينئذ ،وفقا للحجة السابقة ،أن
معدل اإلرسال هو 500بت في الثانية ،في حين أنه ال تكون أية معلومات قد
أُرسلت .ونحصل على نتيجة مماثلة لو استغنينا عن القناة كليا وولدنا رموزا
عشوائية في المستقبل بالطرة والنقش.
تابع االلتباس ترميز القناة
من الواضح أن اإلجراء الصحيح الذي يجب تطبيقه على المعلومات المرسلة هو
األخذ في الحسبان لتلك المعلومات المفقودة في طرف االستقبال ،أو لالرتياب في
اإلشارة المستقبلة المقابلة إلشارة أرسلناها فعال .ومن مناقشتنا السابقة لإلنتروبي
بصفته مقياسا لالرتياب يبدو من المعقول استعمال إنتروبيا مشروطا للرسالة،
استنادا إلى معرفتنا بالرسالة المستقبلة ،ليكون مقياسا للمعلومات المفقودة .بذلك
يكون معدل اإلرسال الفعلي 𝐑 هو حاصل طرح اإلنتربي الشرطي للرسالة المستقبلة
من إنتروبي الرسالة المرسلة:
𝑿 𝒀 𝑯𝑹=𝑯 𝑿 −
تابع االلتباس ترميز القناة
معدل اإلرسال هو المعلومات المشتركة بين الرموز المرسلة والرموز المستقبلة:
𝒀 𝑿 𝑷 𝒈𝒐𝒍 𝒀 𝑿 𝑷 𝑯 𝑿 𝒀 =
𝒀𝑿,
هو تابع االلتباس.
تابع االلتباس ترميز القناة
نتيجة:
يجب إرسال عدد من البتات اإلضافية على قناة لتصحيح الخطأ
يساوي قيمة تابع االلتباس 𝑿 𝒀 𝑯 من أجل التعويض عن
البتات الخاطئة
Channel Capacity سعة القناة ترميز القناة
فيما يخص التوزع الغوصي لمتغير عشوائي 𝑢 عموما ،تعطى كثافة احتماله بالعالقة:
1 − 𝑢2 Τ2𝜎 2
= 𝑢 𝑝 𝑒
𝜎𝜋2
حيث 𝜎 االنحراف المعياري (التشتت) للمتغير العشوائي.
وفي حالة اإلشارات المستمرة ،يعطى اإلنتروبي بالعالقة:
𝑢𝑑 𝑢 𝑝 𝑝 𝑢 log 𝐻 𝑢 = −
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
u2
)H u = න p u log 2πσ du + න p(u du
2σ2
𝜎2
= log 2𝜋𝜎 + 𝑒 = log 2𝜋𝜎 + log
2𝜎 2
1
= 𝑒 𝑒 ،logحيث 𝑒 هو العدد النيبري. ألن:
2
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
1
𝐻 𝑢 = log 2𝜋𝑒𝜎 = log 2𝜋𝑒𝜎 2
2
2
حيث 𝜎 هي استطاعة الضجيج الوسطى.
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
من ناحية أخرى ،يتحقق اإلنتروبي األعظمي لإلشارة المستقبلة إذا كان تابع كثافة
احتمال 𝑦 غوصيا .وحينئذ تكون اإلشارة المستقبلة هي مجموع متغيرين غوصيين.
فإذا كانت االستطاعة الوسطية للضجيج هي 𝑁 ،وكانت االستطاعة الوسطية لإلشارة
المرسلة هي 𝑃 ،كانت االستطاعة الوسطى لإلشارة المستقبلة 𝑁 .𝑃 +وعندئذ
يعطى إنتروبي yبـ:
1
)𝑁 𝐻 𝑦 = log 2𝜋𝑒𝜎 = log 2𝜋𝑒(𝑃 +
2
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
من ناحية أخرى ،وبناء على نظرية شانون-هارتلي ،معدل النبضات األعظمي
(الرموز في حالتنا) التي يمكن إرسالها على القناة يجب أن يحقق العالقة:
fs ≤ 2W
)يجب عدم خلط هذه العالقة مع عالقة تردد التقطيع في نظرية نايكويست).
ويتحقق اإلنتروبي األعظمي في الثانية لإلشارة المستقبلة عندما 𝑊 .𝑓𝑠 = 2لذا:
𝑦 𝐻 𝑊𝐻𝑚𝑎𝑥 𝑦 = 2
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
𝑦 𝐻 𝑊𝐻𝑚𝑎𝑥 𝑦 = 2
1
)𝑁 = 2𝑊 log 2𝜋𝑒(𝑃 +
2
)𝑁 = 𝑊 log 2𝜋𝑒(𝑃 +
ويكون إنتروبي الضجيج أيضا:
)𝑁(𝑒𝜋𝐻 𝑛 = 𝑊 log 2
سعة القناة ترميز القناة
)𝑇𝑖 𝑥 𝑡 = 𝑠𝑖 𝛿(𝑡 − +
)𝑡(𝑛 𝑦 𝑡 = 𝑥 𝑡 +
𝑖
𝑡 𝑛 نموذج مبسط للقناة
إذا كانت سعة قناة التصحيح أكبر من 𝒀 𝑿 𝑯 أو مساوية له ،أمكن أن
نر ّمز بيانات التصحيح بطريقة تمكن من تصحيح الغالبية العظمى من
األخطاء عدا جزء صغير ما 𝝐 منها.
وهذا غير ممكن إذا كانت سعة قناة التصحيح أصغر من 𝒀 𝑿 𝑯.
تصحيح األخطاء ترميز القناة
يمكن أن نرى ذلك مما يلي .من تعريف اإلنتروبي لدينا:
𝑋 𝑍 𝐻 𝐻 𝑋, 𝑍 = 𝐻 𝑋 +
𝑌 𝑋 𝐻 ≥ 𝑌 𝑍 𝐻 𝑋,
تصحيح األخطاء ترميز القناة
ويمكن نشر الجانب األيسر على النحو التالي:
𝑌 𝑋 𝐻 ≥ 𝑍 𝐻 𝑍 𝑌 + 𝐻 𝑋 𝑌,
𝑌 𝑍 𝐻 𝐻 𝑋 𝑌, 𝑍 ≥ 𝐻 𝑋 𝑌 −
)𝑍(𝐻 ≥ 𝐻 𝑋 𝑌 −
تصحيح األخطاء ترميز القناة
إذا اعتبرنا 𝑋 اإلشارة المرسلة ،و 𝑌 اإلشارة المستقبلة ،و 𝑍 المعلومات المرسلة
على قناة التصحيح ،كان الطرف األيمن هو االلتباس مطروحا منه معدل اإلرسال
على قناة التصحيح .إذا كانت سعة قناة التصحيح (إنتروبي 𝑍) أصغر من قيمة
االلتباس ،كان الطرف األيمن أكبر من الصفر .لكن هذه القيمة هي االرتياب فيما تم
إرساله ( 𝑍 )𝐻 𝑋 𝑌,بعد معرفة اإلشارة المرسلة ومعلومات التصحيح .وإذا كان
هذا االرتياب أكبر من الصفر فإن معدل األخطاء التي يمكن تصحيحها ال يمكن أن
يكون أصغر ما يمكن ،أي 𝝐.
تصحيح األخطاء ترميز القناة
النتيجة
يجب أن تكون سعة قناة التصحيح أكبر من قيمة االلتباس أو مساوية له:
𝒀 𝑿 𝑯 ≥ 𝒓𝒐𝒄𝑪
المراجع
A Mathematical Theory of Communication, By C. E. SHANNON, The Bell System
Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948.
EE 376A: Information theory Winter 2017 Lecture 1 — January 10, Lecturer: David Tse .
تصحيح األخطاء ترميز القناة
من أجل أي قناة عديمة الذاكرة وملوثة بضجيج مهما كانت درجته ،من
الممكن نقل بيانات رقمية عليها خالية من األخطاء تقريبا بمعدل أعظمي
يمكن حسابه.
تصحيح األخطاء ترميز القناة
نظرية ترميز القناة (نظرية شانون):
من أجل أي قناة عديمة الذاكرة وملوثة بضجيج وسعتها تساوي Cوتنقل
البيانات بمعدل ،R <Cتوجد أرمزة تجعل احتمال الخطأ في البيانات
المستقبلة صغيرا بقدر ما نريد .هذا يعني أنه يمكننا نقل بيانات خالية من
األخطاء تقريبا بأي معدل Rأصغر من سعة القناة .C
تصحيح األخطاء ترميز القناة
قناة نقل البيانات األصلية مقترح شانون لتصحيح األخطاء:
بيانات أصلية 𝑪 استعمال قناة إضافية لنقل بيانات
تصحيح الخطأ
قناة نقل بيانات تصحيح الخطأ
بيانات تصحيح الخطأ 𝒓𝒐𝒄𝑪
𝒀 𝑿 𝑯 ≥ 𝒓𝒐𝒄𝑪
تصحيح األخطاء ترميز القناة
مقترح شانون صعب التطبيق عمليا:
التصحيح:
عندما يكتشف المستقبل وجود الخطأ ،يطلب من المرسل
إعادة اإلرسال.
كشف وتصحيح األخطاء ترميز القناة
خصائص أرمزة كشف وتصحيح األخطاء:
يوضح المثال السابق الخصائص األساسية ألرمزة كشف وتصحيح
األخطاء:
• نقل معلومات إضافية لتصحيح الخطأ ،انسجاما مع مقترح شانون.
معدل نقل البيانات األصلية أقل من معدل النقل الفعلي على القناة.
• مقدرة الرماز على كشف الخطأ وتصحيحه ليست مطلقة.
• ليس كل رماز كشف لألخطاء قادرا على تصحيحها جزئيا أو كليا.
أرمزة كشف وتصحيح األخطاء ترميز القناة
تقسم سلسلة البيانات المراد ترميزها إلى ل ِبنات متتالية تسمى لبنات
الرسالة ،ويتألف كل منها من kبت .ثم تُر َّمز كل لبنة على انفراد بتحويلها
إلى لبنة أخرى تسمى كلمة الرماز أو لبنة الرماز وتتكون من nبت ،حيث
. n>k
أرمزة كشف وتصحيح األخطاء ترميز القناة
مثال:
𝒌
=𝑹 معدل الرماز:
𝒏
𝑃 𝑘𝐼 = 𝐺
تُختار المصفوفة 𝑃 ،ومن ثم المصفوفة المولدة 𝐺 بحيث يكون الرماز المولد بحسب
العالقة رمازا خطيا .أي إن أسطر 𝐺 يجب أن تكون مستقلة خطيا بعضا عن بعض.
أرمزة كشف وتصحيح األخطاء ترميز القناة
مثال:
1 0 0 1 1 0
𝐺= 0 1 0 0 1 1
0 0 1 1 0 1
أرمزة كشف وتصحيح األخطاء ترميز القناة
1 0 0 1 1 0
𝑈 = 𝑚𝐺 = 𝑚0 𝑚1 𝑚2 0 1 0 0 1 1
0 0 1 1 0 1
أرمزة كشف وتصحيح األخطاء ترميز القناة
فتكون كلمات الرماز تراكيب خطية من بتات الرسالة:
𝐺𝑚=𝑈
𝑢 0 = 𝑚0 𝑢1 = 𝑚1 𝑢 2 = 𝑚2
𝑢4 = 𝑚0 + 𝑚2
𝑢5 = 𝑚0 + 𝑚1
𝑢6 = 𝑚1 + 𝑚2
أرمزة كشف وتصحيح األخطاء ترميز القناة
النتيجة
1
=𝑅 معدل الرماز:
2
مسافة هامينغ الدنيا𝑑𝑚𝑖𝑛 = 3 :
أرمزة كشف وتصحيح األخطاء ترميز القناة
مثال:
𝑑𝑚𝑖𝑛 − 1
≤𝑡
2
أرمزة كشف وتصحيح األخطاء ترميز القناة
أنواع األرمزة اللَّ ِبنية الخطية
يجري تكوين كلمات الرماز بضرب كثير حدود يمثل بتات الرسالة بكثير
حدود آخر يسمى كثير الحدود المولد ،وذلك في حقل غالوا.
يمكن البرهان على أن الرماز اللَّ ِبني الدوري يستطيع تصحيح 𝑡 خطأ:
𝑑𝑚𝑖𝑛 − 1
≤𝑡
2
المراجع
A Mathematical Theory of Communication, By C. E. SHANNON, The Bell System
Technical Journal, Vol. 27, pp. 379–423, 623–656, July, October, 1948.
EE 376A: Information theory Winter 2017 Lecture 1 — January 10, Lecturer: David Tse .
العمليات التي تطبق على المعلومات: .1
عمليات من أجل نقلها ،وهذه تتضمن تأهيلها للنقل بوجود الضجيج والتشويش والتشويه،
وحمايتها من الخطأ من أجل استعادتها على نحو صحيح ،وحمايتها من السرقة والعبث بها.
عمليات من أجل حفظها.
عمليات من أجل استعمالها.
عمليات من أجل تفسيرها ،ومن أمثلة ذلك معالجة اللغات الطبيعية.
مرمز المنبع:
ّ .2
يرمز معلومات المنبع بطريقة أكثر إيجا از وذلك بحذف التكرار (الفائض )redundancy
ّ
رسل.
منها .والغرض من ذلك تخفيض معدل البيانات Data Rateالتي سوف ت َ
مرمز القناة:
ّ .3
مرمز القناة حشوا ( )redundancyإلى البيانات من أجل حماية البيانات المرسلة
يضيف ّ
من أخطاء النقل.
مرمز المنبع يقلص البيانات ،مرمز القناة يزيد البيانات. .4
ال ينطوي الحدث على معلومات إذا كان أكيدا. .5
إذا كان الحدث أكيدا ،كان احتماله مساويا للواحد. .6
ينطوي الحدث على معلومات إذا كان احتمال حدوثه أصغر من الواحد. .7
إذا كان الحدثان 𝑥 و yمستقالن عن بعضهما ،ساوت المعلومات الذاتية المقترنة بحدوثهما .8
معا مجموع المعلومات التي ينطوي عليها كل منهما على حدة:
)𝑦(𝐼 .𝐼 (𝑥, 𝑦) = 𝐼 (𝑥) +
حين رمي حجر نرد متزن ،يساوي احتمال الوقوع على الرقم خمسة .1⁄6ويساوي الغموض .9
أو المعلومة الذاتية أو المفاجأة في هذا الحدث:
1
𝑡𝑖𝑏 ℎ(𝑥 ) = −log 2 = 2.585
6
.10ما هو مقدار المعلومات الذاتية التي يحملها Mرم از مستقال بعضا عن بعض؟
.11ما مقدار المفاجأة في العبارة1=1 :؟
.12ما مقدار المفاجأة في العبارة2=1 :؟ (نأخذ المتمم).
.13ما مقدار المفاجأة في العبارة x=y :إذا علمنا أن المساواة تتحقق باحتمال يساوي %30؟
.14ما نوع الغموض الذي ينطوي عليه السؤال التالي؟
.15ما مقدار الغموض في سحب بنت الكبة إذا علمنا أن الورقة المسحوبة هي ورقة كبة؟
.16احسب عدد البتات التي يمكن لقالبين أن يخزناها عندما تكون جميع وضعياتهما متساوية
االحتمال.
.17احسب االرتياب في وضعية حجر نرد متوازن ،أي إنه يتخذ جميع وضعياته بنفس االحتمال.
.18احسب إنتروبي ورقة شدة تسحب عشوائيا ،وانتروبي ورقتين تسحبان عشوائيا.
.19إذا أرسلت رسالة إلى صديق لك مكونة من حرفين فقط من الحروف الالتينية التي يبلغ
عددها 26حرفا ،فما هي كمية المعلومات المختلفة التي يحملها ذينك الحرفان؟
.20اإلنتروبي :هو القيمة الوسطى للغموضات أو االرتيابات في قيم المتغير العشوائي.
.21تحصل القيمة العظمى لالنتروبي عندما يكون توزع كثافة احتمال المتغير متجانسا.
.22تحصل القيمة العظمى للمعلومات الذاتية الكامنة في رمي النقدة عندما تكون النقدة متزنة.
.23القالب غير المتزن ال يخزن بتا كاملة من المعلومات.
.24عموما ،يعبِّر اإلنتروبي عن:
كمية المعلومات الالزمة للتعبير عن حالة المنظومة العشوائية.
كمية المعلومات التي يمكن للمنظومة العشوائية أن تحملها.
مقدار عدم االنتظام في المنظومة العشوائية.
االرتياب في حالة المنظومة العشوائية.
مقدار تدهور انتظام المنظومة العشوائية.
.25اإلنتروبي المشروط للمتغيرين 𝑋 و 𝑌 يعطى بالعالقة:
)𝑋(𝐻 𝐻(𝑌|𝑋) = 𝐻(𝑋, 𝑌) −
أو العالقة
A B
0.5
.35بافتراض أن اإلنتروبي الفعلي للغة األلمانية يساوي 3.4بت للحرف الواحد ،وأن عدد أحرف
اللغة األلمانية يساوي 30حرفا .ما مقدار الفائض في هذه اللغة؟
.36هل تصلح اللغة التي ينعدم فيها الفائض للتواصل؟
.37أيهما أفضل للتراسل ،استعمال رماز ينطوي على فائض ،أم رماز ال فائض فيه:
ب -في حالة وجود الضجيج أ -في حالة انعدام الضجيج
.38ما مقدار معدل اإلنتروبي لمنبع يعطي رمو از مستقلة عن بعضها ويساوي عددها أربعة رموز
بمعدل 2500رمز في الثانية؟
.39ما هي الخوارزمية الفضلى لتكوين رماز يضغط البيانات غير المتجانسة االحتماالت إلى
أقصى حد ممكن؟
.40إذا كانت رموز البيانات مستقلة عن بعضها ،ما هي أفضل خوارزمية لضغط تلك البيانات؟
.41ما هو الشرط الذي يضمن فك الرماز المضغوط على نحو فريد؟
.42الرماز ذو البادئة هو الرماز الذي تكون فيه كل كلمة رمز جزءا من كلمات الرمز األخرى.
صح أم خطأ؟
𝟏 ∑𝒓−أمكن تكوين رماز ذي بادئة
𝒔 𝟎=𝒊
𝒊𝒏−
.43إذا حققت أبجدية رموز ما متراجحة كرافت 𝟏 ≤
من تلك األبجدية .صح أم خطأ؟
.44هل يؤدي رماز هفمان إلى فقد في البيانات؟
.45هل تسبب خوارزمية JPEGضياعا في جزء من البيانات المضغوطة؟
.46الغاية من ترميز المنبع هي ضغط البيانات إلى أقصى حد ممكن وذلك بتخليصها من
الفائض بغية تقليص مدة إرسالها على خطوط االتصال ،وتقليص الحيز الالزم لخزنها .صح
أم خطأ؟
.47ينطوي ترميز القناة على حشر بيانات إضافية في البيانات بغية المساعدة على تخليصها
من األخطاء في حالة نقلها أو خزنها في ظروف من التشويش والتشويه والضجيج .صح أم
خطأ.
.48تدخل قناة االتصال في إشارة البيانات الرقمية المنقولة عليها ضجيجا يضاف إليها ،وتشويها
في بنيتها .صح أم خطأ؟
.49الضجيج إشارة عشوائية من مصدر تشويش تضيفها قناة االتصال أو وسط التخزين إلى
إشارة البيانات.
.50معالجة الضجيج الرشقي أبسط من معالجة ضجيج التكميم .صح أم خطأ؟
المرسلة .أي إنه
َ .51تابع االلتباس هو إنتروبي المعلومات المستقبلة حين معرفة المعلومات
مقدار الغموض أو االرتياب في المعلومات المستقبلة حين إرسال معلومات معينة .ولذا يعبِّر
عن مقدار المعلومات الملتبسة في المستقبل ،أي تلك الخاطئة.
.52معدل اإلرسال هو مقدار البيانات التي يجري نقلها على قناة االتصال بشكل سليم .صح أم
خطأ؟
.53معدل اإلرسال= إنتروبي المرسل – تابع االلتباس في المستقبل .صح أم خطأ؟
.54للتعويض عن أخطاء النقل يجب إرسال بيانات لتصحيح األخطاء على قناة اتصال إضافية
تساوي سعتها تابع االلتباس ،أي اإلنتروبي الشرطي للمعلومات المستقبلة حين إرسال
معلومات معروفة ما .صح أ خطأ؟
.55