Professional Documents
Culture Documents
فهرست مطالب
مقدمه
امروزه دانش مدرن هوش مصنوعي ب ه دو دس ته اص لي تقس يم ميش ود :يكی ه وش مص نوعي س مبوليك يا نم ادين (Symbolic
)AIو ديگري هوش غيرسمبوليك كه پيوندگر( )Connection AIنیز نامیده می شود.
1
شبکه های اعتقادی بیز
ه وش مص نوعي س مبوليك از رهي افتي مبت ني بر محاس بات آم اري پ يروی میكن د و اغلب تحت عن وان ي ادگيري ماش ين يا (
)Machine Learningطبقهبندي ميشود .هوش سمبوليك ميكوشد سيستم و قواعد آن را در قالب سمبولها بيان كند و با نگاشت
اطالعات به سمبولها و قوانين به حل مس ئله ب پردازد .در مي ان معروفت رين ش اخههاي ه وش مص نوعي س مبوليك ميت وان ب ه
سیستم های خبره ( )Expert Systemو شبکه های Bayesianاشاره کرد.
يك سيستم خبره ميتواند حجم عظيمي از دادهها را پردازش نمايد و بر اساس تكنيكهاي آماري ،نتايج دقيقي را تهيه كند .شبكههاي
Bayesianيك تكنيك محاسباتي براي ايجاد ساختارهاي اطالعاتي و تهيه استنتاجهاي منطقي از روي اطالعاتي است كه ب ه كم ك
روشهاي آمار و احتمال به دست آمدهاند .بنابراين در هوش سمبوليك ،منظور از يادگيري ماشين استفاده از الگوريتمهاي تشخیص
الگوها ،تحلیل و طبقه بندی اطالعات است.
اما هوش پيوندگرا متكي بر يك منطق استقرايي است و از رهيافت « آموزش /بهبود سيستم از طري ق تك رار» به ره ميگ يرد .اين
آموزشها نه بر اساس نتايج و تحليلهاي دقيق آماري ،بلكه مبتني بر شيوه آزم ون و خط ا و « ي ادگيري از راه تجربه» اس ت .در
ه وش مص نوعي پيون دگرا ،قواع د از ابت دا در اختي ار سيس تم ق رار نميگ يرد ،بلك ه سيس تم از طري ق تجرب ه ،خ ودش ق وانين را
استخراج ميكند .متدهاي ايجاد شبكههاي عصبي ( )Neural Networksو نيز بهكارگيري منط ق ف ازي ( )Fuzzy Logicدر
این دسته قرار می گیرند.
براي درك بهتر تفاوت ميان اين دو شيوه به يك مثال توجه كنيد .فرض كني د ميخ واهيم ي ك سيس تم OCRبس ازيم .سيس تم OCR
نرمافزاري است كه پس از اسكن كردن يك تكه نوشته روي كاغذ ميتواند متن روي آن را استخراج كن د و ب ه كاراكتره اي مت ني
ديل نمايد. تب
بديهي است كه چنين نرمافزاري به نوعي هوشمندي نياز دارد .اين هوشمندي را با دو رهيافت متفاوت ميتوان فراهم كرد .اگر از
روش سمبوليك استفاده كنيم ،قاعدتا ً بايد الگوي هندسي تم ام ح روف و اع داد را در حالته اي مختل ف در بان ك اطالع اتي سيس تم
تعريف كنيم و سپس متن اسكن شده را با اين الگوها مقايسه كنيم تا بتوانيم متن را استخراج نماييم .در اينجا الگوهاي حرفي-ع ددي
يا همان سمبولها پايه و اساس هوشمندي سيستم را تشكيل ميدهند .روش دوم يا متد « پيوندگرا» اين است كه ي ك سيس تم هوش مند
غيرسمبوليك درست كنيم و متنهاي متعددي را يك به يك به آن بدهيم ت ا آرام آرام آم وزش ببين د و سيس تم را بهين ه كن د .در اينج ا
سيستم هوشمند ميتواند مثالً يك شبكه عصبي ي ا م دل مخفي م اركوف باش د .در اين ش يوه س مبولها پاي ه هوش مندي نيس تند ،بلكه
فعاليتهاي سلسله اعصاب یک شبکه و چگونگی پیوند میان آنها مبنای هوشمندی را نشان می دهند.
اما تحقیقی ما در رابطه با یکی از شاخه های اصلی هوش مصنوعی سمبلیک یعنی شبکه های بیزین یا Bayesian Network
می باشد .همانگونه که در قب ل ن یز ب ه آن اش اره ش د ش بکه ه ای Bayesianاز روش ه ای آم ار واحتم ال جهت اس تنتاج روی
ساختارهای اطالعاتی بهره می گیرد .بنابرین برای بررسی این تکنیک باید آشنایی کاملی با روش های آمار و احتمال بک ار ب رده
شده در آن داشته باشیم ،لذا فصل اول این تحقیق را اختصاص به این امر داده ایم.
:احتمال 1.1
در این بخش مرور کوتاهی بر نظریه احتماالت و ساختارها و نمادهای بکار برده شده در آن را داریم .نظریه احتماالت در م ورد
حالت ها و اتفاقات ،دسته بنبدی ها و مسائلی کاربرد دارد که ،میزان قطعیت آنها 100درصد نمی باشد.
همانگونه که می دانید در بحث هوش مصنوعی همواره با مسائلی روبرو هستیم که حکایت از نوعی عدم قطعیت دارد .در مس ائل
دنیای واقعی ،توانایی صحبت ک ردن در م ورد چیزه ایی ک ه قطعیت ندارن د می توان د بس یار مفید باش د .بعن وان نمون ه ع املی (
)Agentرا تصور کنید که قصد پیش بینی وضع آب و هوا را دارد .همانگونه که از لفظ پیش بیVVنی مش خص می باش دAgent ،
با نوعی عدم قطعیت در انجام کارش روبرو است .بنابرین یکی از گزینه ه ای مناس ب ط راحی این Agentمی توان د اس تفاده از
احتمال در نحوه ی تصمیم گیری Agentباشد .حال به چگونگی کارکرد احتمال در مورد این مسئله می پردازیم.
به عنوان مثال پیش بینی وضع هوا در روز بعد می تاند بسیار مفید باشد .در اینجا شاید بتوانیم بر اساس مش اهدات عم ومی خ ود،
یک فرضیه ی خیلی ساده و بصورت « هوا در 10درص د زم ان آفت ابی اس ت و در 70درص د زم ان ب ارانی خواه د ب ود ».را
فرموله نماییم .می توانیم از سمبل هایی شبیه ب ه آنچ ه ک ه در محاس بات احتم الی اس تفاده می ش وند را جهت بیان چ نین جمل ه ای
استفاده کنیم :
P(S) = 0.1
P(R) = 0.7
اولین جمله می گوید که احتمال ( Sآفتابی است) برابر 0.1می باش د .همچ نین جمل ه ی دوم بیان می دارد ک ه احتم ال ( Rب ارانی
است) 0.7 ،است .احتماالت معموال بصورت عددی اعش اری بین 0و 1بیان می گردن د .احتم ال صVVفر ب ه مع نی « یقین ا ن ه» و
احتمال یک به معنی « یقینا بله» می باشد .با این حساب P(S) = 1به معنی این است ک ه هم واره ه وا آفت ابی اس ت .بس یاری از
سمبل هایی که در منطق از آنها استفاده می کردیم در احتمال نیز کاربرد دارد .به عناون مثال ) P(~Rب ه این مع نی اس ت ک ه «
احتمال اینکه هوا بارانی نباشد» و ^ R) P(Sبه این معنی است که «احتمال اینکه هوا هم آفتابی و هم بارانی باشد».
همچنین ) P(S v Rکه به معنی « احتمال اینکه هوا یا آفتابی باشد یا بارانی» می باشد بوسیله ی قانون روبرو مشخس می گردد.
)P(S v R) = P(A) + P(B) – P(S ^ R
در شکل زیر که به نمودار ون شهرت دارد چگونچی رسیدن به رابطه فوق را می توان بررسی کرد.
S R
S ^R
اغلب در یک آزمایش ،علم به اینکه پیشامدی رخ داده است ،ممکن است در احتمال رخ دادن پیشامدی دیگر تاثیر گذارد .مثال اگ ر
بدانیم در هفته ی اول دیماه شهری بارانی بوده است ،وقوع این پیشامد می تواند احتمال بارانی بودن هفته ی دوم را تقلیل دهد.
نماد ) P(A | Bکه بصورت « احتمال Bبه شرط » Aخوانده می شود ،احتمال شرطی نامیده می ش ود .ب ه عب ارت دیگ ر می
خواهیم بدانیم که احتمال درستی Bدر صورتی ک ه میدانیم Aدرس ت اس ت ،چق در می باش د P(A | B) .بص ورت ق انون زیر
تعریف می شود:
)P( A B
= )P( A | B )P( B
در اینجا توجه به این نکته ضروری می باشد که از این رابطه در مواقعی که P(B) = 0است نمی توان استفاده کرد.
به عنوان نمونه ،فرض کنید در مثال قبل احتمال اینکه هوا هم آفتابی باشد و هم بارانی ،برابر 0.01است .حال احتم ال اینکن ه وا
بارانی باشد در صورتیکه می دانیم آفتابی است را می توان چنین محاسبه نمود:
) P( R S
= )P(R | S ) P(S
0.01
= = 0.1
0 .1
نکته :
3
شبکه های اعتقادی بیز
توجه داشته باشید که اختمال اینکه هوا آفتابی باشد در حالی که بارانی است متفاوت از حالت فوق می باش د .این احتم ال بص ورت
زیر محاسبه می شود:
)P( S R
= )P(S | R )P( R
0.01
=
0 .7
)= 0.14 ≠ 0.1 = P(R | S
توزیع احتمال ترکیبی جهت نمایش احتماالت جمالت ترکیبی مورد اس تفاده ق رار می گ یرد .ب ه عن وان مث ال ج دول زیر توض یح
احتمال ترکیبی دو متغیر Sو Rرا نمایش می دهد.
با توجه به جدول فوق می توان احتماالت زیر را بدست آوریم :
P(S R) = 0.01
P(S ~R )= 0.09
P(~S R) = 0.69
P(~S ~R)= 0.21
حال به کمک احتماالت فوق می توان احتمال هر یک Sو Rرا بصورت زیر محاسبه نمود:
در نهایت با توجه به احتماالت فوق به راحتی می توان احتماالت شرطی متناظر را بدست زیر را بدست آورد :
نکته:
مقادیر جدول توزیع احتمال ترکیبی با توجه به آمارگیری های سازمان هواشناسی بدست می آید.
همچنین با توجه به جدول توزیع احتمال ترکیبی می توان احتمال زیر را نیز بدست آورد :
P(S R) = 1 – P(~S ~R) = 1 – 0.21=0.79
در اینجا دوباره به مسئله Agentی که هوای روز بعد را پیش بینی می ک رد ب ر می گ ردیم .در هنگ ام ط راحی این Agentمی
توان جدول توزیع احتمال را به عن وان دانش داخلی اولیه 1در اختیار Agentق رار داد .س پس Agentب رای پیش بینی توس ط
Sensorهایش محیط را Senseمی کند ،بعد از آن Agentبا توجه Perceptهای دریافتی و همچ نین دانش داخلی اش پیش بینی
می کند که هوای روز بعد چگونه است.
S ~S
R 0.01 0.69 :بیز 1.3
~R 0.09 0.21 می ار ک ه ب ارز ب وی نح به شرطی احتمال آن در که احتمال معروف احتمالت از یکی
رود فرمول بیز می باشد .این فرمول را یک کشیش انگلیسی به نام توماس بیز در سال
1763میالدی پیدا کرد.
مقاله ی اصلی بیز مدتها به طور جدی مورد توجه نبود .ولی این مقال ه چن دی پیش ب رای ب ار دوم در یکی از مچالت علمی آم ار
منتشر شد .فرمول بیز در حقیقت نقطه ی شروع رشته ای از آمار به نام آمار بیز می باشد .آمار ب یز ک ه از لخ اط فلس فی و تعب یر
احتمال به طریق شخصی دارای اهمیت است ،در چند دهه قبل توسط آماردان ان طی کتب و مق االت متع دد م ورد بحث و بررس ی
قرار گرفته است.
4
شبکه های اعتقادی بیز
این نظریه جهت محاسبات احتمالی که در آن یک رخداد به طور قطع اتفاق خواهد افتاد و یا یک شرایط خاص قطعا حادث خواه د
شد ،مورد استفاده قرار می گیرد.
)P( A B
= )P(A|B ) P(A B) = P(A|B)P(B
)P( B
)P ( B A
= )P(B|A ) P(B A) = P(B|A)P(A
)P ( A
با توجه به رابطه ی فوق رابطه ی بیز را براحتی می توان بصورت زیر محاسبه نمود:
)P( A | B) P( B
= )P(B|A
)P ( A
در اینجا برای بررسی بیشتر این رابطه و همچنین کاربرد آن به ذکر چند مثال می پردازیم.
فرض کنید در 80درصد مواقع وقتی یک نفر سرما می خورد ،دمای بدنش باال می رود .اگر Aمعادل « دمای بدنم باال است» و
همچنین Bمعادل « سرما خورده ام » باشد ،در نتیجه میتوانیم عبارت احتمالی پسین زیر را داشته باشیم.
P(A|B) = 0.8
حال فرض کنید که می دانیم که در هر لحظه ی زمانی از هر 10000نفر یک نفر سرما خورده اس ت ،و از ه ر 1000نف ر یک
نفر دمای بدنش باالست .می توانیم این احتماالت پیشین را چنین بنویسیم:
P(A) = 0.001
P(B) = 0.0001
دوباره فرض کنید که دمای بدن شما باال است .چقدر احتمال دارد که شما سرما خورده باشید؟ این مقدار ب ه س ادگی توس ط تئ وری
احتمال بیز قابل محاسبه می باشد:
)P( A | B) P( B 0.8 * 0.0001
= )P(B|A = = 0.008
)P ( A 0.001
با این حساب نشان دادیم که فقط یه این دلیل که دمای بدن شما باالست نمی توان گفت که شما سرما خ ورده اید .در واق ع ،احتم ال
اینکه سرما خورده باشید 8از 1000است که عدد کوچکی می باشد.
حال تصور کنید که قصد طراحی یک عامل به نام پزشک را دارید .پارامترهای اساسی که ب رای این عام ل باید در نظ ر بگیرید
بصورت زیر می باشد:
:پزشک Agent
:دریافت عالیم بیماری Percept
5
شبکه های اعتقادی بیز
A
) |P (B A ) |P (~B A
B ~B
شکل : 2-1قسمتی Bayesian Networkمثال فوق
Agentبرای تصمیم گیری و انجام مناسب ترین Actionباید برسی کند که آیا بیمار سرما خورده ( )Bیا نه (~ Agent ،)Bمی
تواند از تئوری احتمال بیز استفاده کند و مقدار دو احتمال نشان داده شده در شکل را به کمک دانش اولیه محاس به نم وده س پس ب ا
توجه به مقادیر بدست آمده Actionمناسب را انجام دهد.
نکته:
شرح کامل Bayesian Networkو چگونگی رسم آن ،به طور کامل در فصل بعد توضیح داده خواهد شد.
تئوری بیز را می توان برای احتماالت شرطی بیشتر از دو متغیر به صورت زیر بسط داد:
چنانچه هر کدام از E1تا Enها در صورت داشتن فرضیه ،Hمستقل از یکدیگر باشند ،می توان عبارت فوق را بصورت زیر
دو مرتبه نوشت:
) P ( E1 | H ) .... P ( En | H ) P ( H
= )P(H|E1 ….En | H )P ( E1 ... En
بیایید فرض دیگری نیز بکنبم ،بر اساس فرض جدید کارگاهان معتق د هس تند ک ه در ه وای م ه آل ود رخ دادن تص ادف ،احتم ال
درست تشخیص دادن تاکسی توسط شاهد 0.75می باشد.
با توجه به اینکه شاهد اعالم کرده است که تاکسی سفید بوده است ،چقدر احتمال دارد که او درست گفته باشد؟
از نماد ) P(CWجهت نمایش احتمال اینکه فرد مقصر راننده ی یک تاکسی سفید ب وده و از ) P(CRجهت نم ایش احتم ال اینک ه او
راننده ی ماشین زرد بوده استفاده می کنیم.
6
شبکه های اعتقادی بیز
همچنین از ) P(WWجهت داللت بر احتمال اینکه شاهد بگوید که او ماشین س فید دیده اس ت و ) P(WYجهت اینک ه او بگوید ک ه
ماشین زرد دیده است استفاده می کنیم.
حال ،اگر یک شاهد واقعا یک ماشین زرد دیده باشد ،در 75درصد مواقع او می گوید که ماشین زرد بوده و اگر یک ماشین س فید
دیده باشد ،در 75درصد زمان ها او خواهد گفت که ماشین سفید بوده است .با این حساب اطالعات زیر را داریم:
P(CY) =0.9
P(CW)=0.1
P(WW|CW)= 0.75
P(WY|CY) =0.75
در نتیجه می توانیم با اعمال تئوری بیز احتمال درستی شهادت این ش اهد ،وقتیک ه گفت ه اس ت ماش ین س فید ب وده اس ت را حس اب
نماییم.
0.75 * 0.1
=)P(CW|WW )P (Ww
حال الزم داریم تا ) P(WWرا محاسبه نماییم .احتمال پیشینی که داللت بر این دارد که شاهد با چه احتمالی گفته است که او ماش ین
سفید دیده است.
چنین تصور کنید که اگر به این شاهد به ص ورت ک امال تص ادفی 1000ماش ین نش ان داده ش ود انتط ار داریم ک ه 900ت ا از این
ماشینها زرد باشد و فقط 100تای آنها سفید باشد .شاهد متاسفانه 250ماشین را اشتباه تش خیص می ده د :از 900ماش ین زرد ب ه
طور اشتباه 225تای آنها را می گوید که سفید بوده و از 100ماشین سفید باقیمانده او اشتباها 25تای آنها را زرد دیده است .با این
حساب در مجموع ،او معتقد است که 300ماشین سفید دیده است .این در حالی است که فق ط 100ت ای آنه ا س فید ب وده ان د .ب ا این
حساب ) P(WWبرابر است با:
300
= )P(WW = 0.3
1000
0.75 * 0.1
= )P(CW|WW = 0.25
0 .3
به عبارت دیگر اگر این شاهد بگوید که ماشین سفید بوده است ،احتمال اینکه واقعا ماشین سفید باش د فق ط 0.25اس ت یع نی در 3
برابر زمان ها در واقع ماشین زرد بوده است.
در این مثال تئوری بیز تعداد واقعی تاکسی های هر رنگ شهر را به حساب آورده است .اگر شاهد گفت ه ب ود ک ه او ب ک تاکس ی
زرد دیده ،این احتمال بسیار زیاد بود که او راست گفته باشد ،این احتمال بیشتر به این دلیل است که تعداد تاکس ی ه ای زرد خیلی
بیشتر از تاکسی های سفید است .اگر شاهد به درستی و به طور کامل مش اهده می ک رد ب ه گون ه ای ک ه هیچ خط ایی نمی داش ت،
احتمال فوق برابر 1می بود.
این مثال همچنین در روشن شدن این واقعیت که در دنیای واقعی و در بسیاری از موقعیت ها ،اطالع ات ک افی جهت اس تفاده از
تئوری بیز را در اختیار داریم ،به ما کمک می کند .چنین به نظر می رسد که جهت اعمال و استفاده از تئوری بیز الزم اس ت ک ه
شرایط خاص و پیجیده ای مهیا باشد ،اما در واقع فراهم نمودن شرایط استفاده از این تئوری بسیار ساده ت ر از س ایر روش ه ا می
باشد.
در بسیاری از موقعیت ها ،مقایسه دو احتمال می تواند مفید باش د .مخصوص ا در انج ام یک تش خیص در بین یک مجموع ه از
مدارک و شواهد که قرار است بر این اساس از بین یک تعداد فرضیه ی ممکن یکی انتخاب گردد.
به عنوان نمونه ،مثال پزشکی داده شده در قسمت 1-4-1را توسعه می دهیم .در آنج ا از Aجهت نم ایش این واقعیت ک ه «دم ای
بدن من باال است» و از Bجهت نمایش این فرضیه که «من سرما خورده ام» استفاده نمودیم و داشتیم:
P(A)=0.001
P(B)=0.0001
P(A|B)=0.8
حال اگر از Cجهت نمایش فرضیه ی «من طائون دارم» استفاده کنیم و داشته باشیم:
7
شبکه های اعتقادی بیز
P(C)=0.000000001
P(A|C)=0.99
به عبارت دیگر احتمال طائون داشتن افراد بسیار بسیار کم است اما اگر چنین باشد ،در اغلب موارد یقینا دمای بدنشان باال خواه د
بود .در این وضعیت ،وقتی می خواهیم تشخیص دهیم که اگر کسی دمای بدنش باالست ،طائون دارد یا سرما خ ورده اس ت به تر
است ببینیم کدامیک از فرصیه ها Bیا Cاحتمال رخ دادن بیشتری دارند:
)P( A | B) P( B
= )P(B|A )P ( A
) P( A | C ) P (C
= )P(C|A
)P( A
پر واضح است که جهت مقایسه Bو Cدر صورت نداشتن Aمی ت وان ) P(Aرا از دو معادل ه ی ف وق ح ذف نم ود و رابط ه ی
زیر را بدست آورد.
با این حساب صدها هزار برابر احتمال اینکه باال بودن دمای بدن دلیل بر وجود طائون باشد ،دلیل سرماخوردگی می باشد.
: 1-4-4نرمال سازی
نرمال سازی پروسه ای است که در آن احتماالت پسین یک جفت متغیر بر یک مق دار ث ابت تقس یم می ش وند ت ا مطمئن ش ویم ک ه
مجموع آنها 1می شود.
این مطلب می تواند با توجه به دو معادله ی زیر انجام گیرد:
)P( A | B) P( B
= )P(B|A
)P ( A
) P ( A |~ B ) P (~ B
= )P(~B|A )P ( A
با دانستن اینکه Aدرست است B ،باید یا درست باشد و یا نادرست باشد .یعنی داریم:
)P ( A | B ) P ( B
) P(B|A) = P ( A | B) P ( B) P( A |~ B ) P (~ B
با این حساب می توان از تئوری بیز جهت محاسبه ی احتمال شرطی ) P(B|Aبدون نیاز به دانستن و یا محاسبه ی ) P(Aاستفاده
نمود.
معادله ی فوق معموال بصورت زیر نوشته می شود:
8
شبکه های اعتقادی بیز
) P(B|A) = P( A | B) P( B
1
)P α = P( A | B) P( B ) P( A |~ B) P(~ B
حال دوباره به مسئله ی تشخیص پزشکان بر می گردیم .واقعیت هایی که داریم بصورت زیر می باشد:
P(A) = 0.001
P(B) = 0.0001
P(A|B) = 0.8
حال فرض کنید که P(A|~B) = 0.00099باشد .این احتمال شرطی به این مطلب اشاره می کند که چقدر احتمال دارد یک نف ر
دمای بدن باالیی داشته باشد در حالی که سرما نخ ورده باش د .ح ال می ت وانیم از معادل ه ی ذیل ب ه منظ ور محاس به ی )P(B|A
استفاده کنیم:
) P ( A | B) P ( B
)P(B|A) = P( A | B ) P ( B ) ( P ( A |~ B ) P (~ B
0.0099 * 0.999
=
0.00099 * 0.9999 0.8 * 0.0001
0.00008
= = 0.075
0.001069901
نتیجه ی پروسه ی نرمال سازی این بوده است که مطمئن باشیم مجموعه P(B|A) + P(~B|A) =1
می باشد.
یک مدل خیلی ساده جهت یادگیری را می توان از روی قانون بیز بدست آورد.
در تمام مب احث قب ل در م ورد احتم ال فرض یه ه ا و یا اس ناد و م دارک ص حبت نم ودیم .جهت اس تفاده از تئ وری احتم االت در
یادگیری ،باید در مورد میزان احتمال درستی بعضی فرضیه ها با داشتن یک مجموعه از مدارک داده ش ده ص حبت ک نیم .در این
مبحث از سمبول های مشابه استفاده می کنیم و می نویسیم:
)P(H|E
بدین ترتیب با داشتن یک مجموعه از رویدادها ،ک اربر می توان د تع یین نماید ک ه ب ه چ ه فرض یه ای معتق د باش د .جهت این ک ار
احتمال پسین هر کدام را محاسبه می نماید .فرض کنید که nفرضیه ی ممکن H1،....،Hn ،وجود داشته باشد .با این حس اب ب رای
هر Hiداریم:
) P ( E | Hi ) P ( Hi
= )P(Hi|E ) P( E
9
شبکه های اعتقادی بیز
با این روش الگوریتم برای هر فرضیه ی ممکن ) P(Hi|Eرا محاس به می نماید و آنی را انتخ اب می کن د بزرگ ترین احتم ال را
دارد .به روشی مشابه سیستم می تواند از این رون جهت تعیین فعالیتی که باید رخ دهد استفاده نماید .در این حالت Hiفرض یه ای
است که بر اساس آن Ai ،بهترین عملی می باشد که باید در وضعیت جاری اتفاق بیافتد.
در واقع ،فرمول باال در این وضعیت می تواند ساده شود ،چرا که ) P(Eمستقل از Hiمی باشد و مقدار یکسانی برای هر فرضیه
وجود دارد .لذا از آنجا که ما به دنبال فرضیه ای با بیشترین مقدار
مقدار احتمال پسین می باشیم ،می توانیم ) P(Eرا از محاسبات حذف نماییم و فقط به دنبال بیشینه کردن مق دار )P(E|Hi).P(Hi
باشیم.
در واقع ،اگر فرض کنیم که همه ی فرضیه ها مش ابه و مس اوی هس تند و هیچگون ه اطالع ات اض افی نداش ته باش ند ( در حقیقت
برای هر iو jها P(Hj)=P(Hi) ،باشد) ،می توانیم این مطلب اضافه را حذف کنیم و فق ط ب ه ط ور س اده فرض یه ای را انتخ اب
نماییم که در آن ) P(E|Hiبیشترین باشد .این مقدار به عنوان احتمال رخ دادن Eبا داشتن فرضیه Hiنامیده می شود.
در فصل پیشین مطالبی را پیرامون عدم قطعیت فرا گرفتیم و آموختیم که چگونه از طریق قوانین احتمال می توان امکان رویداد
یا عدم رویداد یک واقعه را پیش بینی کرد .در این فصل عالوه بر استفاده از مفاهیم گذشته نیز به مفهوم وابستکی می پردازیم.
مفهوم وابستکی در تئوری احتماالت بسیار مهم هستند .دو رخداد Aو Bغیر وابسته یا مستقل هستند اگر احتمال روی دادن A
به طور کامل به رخداد یا عدم رخداد Bمرتبط نباشد.
به عنوان مثال در پرتاب دو سکه یکی پس از دیگری احتمال اینکه اولین سکه رو بیاید و احتمال اینکه دومین سکه نیز رو بیاید
کامال" از یکدیگر مستقل هستند و دو احتمال مستقل هستند.
مطابق قوانین احتمال اگر Aو Bمستقل باشند احتمال اینکه هر دو با هم رخ دهند به صورت زیر قابل محاسبه می باشد:
10
شبکه های اعتقادی بیز
اما در صورتی که Aوابسته به Bباشد ،معادله ی فوق دیگر صادق نیست و قوانین به صورت زیر تغییر می کند:
)P( A B
P ( B | A) فرمول 2-2
)P( A
با مقایسه ی دو معادله ی فوق می توانیم درک کنیم که Aو Bمستقل هستند اگر:
) P ( B | A) P ( B
در این حالت احتمال رخ دادن ،Bاز رخداد یا عدم رخداد Aتاثیر نمی پذیرد.
شبکه ی بیز یا شبکه ی اعتقادی بیز یک گراف جهت دار بدون دور است که نودها در آن نمایش دهنده مدارک یا فرضیه ها
هستند و یال ها بیانگر وابستگی ها می باشند به طوری که یک یال که بین دو نود وجود دارد بیانگر وابستگی آن دو نود می باشد.
به عنوان مثال شبکه ی اعتقادی شکل 1-2شامل 5نود می باشد .در این شکل دو نود Aو Bمدرک و نود های Cو Dو E
فرضیه می باشند.
در شکل فوق یال های بین نود ها بیانگر وابستگی می باشند بر اساس این نمودار Cو Dهر دو وابسته به Aمی باشند و Dو E
هر دو وابسته به Bهستند .نود هایی که یالی میان آن ها وجود ندارد مستقل هستند .به عنوان مثال در شکل فوق Bاز Aمستقل
می باشد.
در یک شبکه ی بیز ،هر نود یک سری احتماالت دارد که به آن نسبت داده شده اند .این احتماالت بر اساس مقادیر نود هایی
محاسبه می شوند که به آن ها وابسته اند .بحث را در شکل فوق دنبال می کنیم؛ Aو Bهر دو تنها احتماالت پیشین ) P(Aو
) P(Bرا دارا می باشند زیرا به هیچ نود دیگری وابسته نیستند .در مقابل Cو Dهر کدام فقط به یک نود دیگر وابسته هستند ،از
اینرو برای محاسبه ی ) P(Cدو حالت متفاوت را بایستی در نظر گرفت (به جدول 1-2مراجعه کنید):
A .1درست باشد.
A .2درست نباشد.
همچنین برای محاسبه ی P(D)، 4حالت را بسته به مقادیر Bو ،Aباید در نظر گرفت .در حالت کلی در شبکه ی نشان داده
شده در شکل 1-2احتماالت شرطی زیر مورد استفاده قرار می گیرند:
11
شبکه های اعتقادی بیز
P ( A)
P( B)
P (C | A)
P (C | A)
P( D | A B)
P ( D | A B )
P ( D | A B )
P ( D | A B )
P( E | B )
P ( E | B )
تمام این محاسبات را می توان در جدولی با عنوان جدول توزیعات احتمال ترکیبی که در فصل قبل با آن آشنا شدید گردآوری می
:کنیم
Marginal Probability of
C
A
A P(C^A) P(A)
A
P(C^ P(
A)
A)
Marginal Probability of
P(C)
C
Marginal Probability of
E
B
B P(E^B) P(B)
B
P(E^ P(
B)
B)
Marginal Probability of
P(E)
E
Marginal
D
Probability of A,B
A B P ( D ( A B )) P(A^B)
A B P ( D ( A B)) P(A^ B)
A B P ( D (A B )) P( A^B)
A B P ( D (A B )) P(
A^ B)
Marginal P(D)
12
شبکه های اعتقادی بیز
Probability of D
همان طور که گفته شد شکل 1-2بیانگر یک شبکه ی اعتقادی ساده است اما در صورتی که لیست تمام احتماالت باال را با آن
ادغام کنیم ،به یک شبکه ی اعتقادی کامل دست می یابیم.
با استفاده از یک شبکه ی بیز می توان احتمال مشترک را محاسبه نمود .به عنوان مثال اگر بخواهیم بدانیم با چه احتمالی یک
عامل در وضعیت A، B، C، Dو Eقرار می گیرد به صورت زیر عمل می کنیم:
)P(A,B,C,D,E
)P(A,B,C,D,E)=P(E|A,B,C,D).P(A,B,C,D
:دوباره فرمول 3-2را به صورت بازگشتی اعمال می کنیم تا به عبارت زیر برسیم
)P(A,B,C,D,E)= P(E|A,B,C,D).P(D|A,B,C).P(C|A,B).P(B|A).P(A
در واقع ماهیت شبکه ی اعتقادی ،به ما اجازه می دهد که این عبارت را ساده سازیم و از آنجا که می دانیم ،به عنوان مثال E
وابسته به A، Cیا Dنیست می توانیم عبارت ) P(E|A,B,C,Dرا به ) P(E|Bکاهش دهیم .بنابراین داریم:
)P(A,B,C,D,E)=P(E|B).P(D|A,B).P(C|A).P(B).P(A
هر کدام از عبارات ) P(E|Bو ) P(D|A,Bو ) P(C|Aرا به ترتیب می توان با استفاده از فرمول 2-2و همچنین داده های
موجود در جداول به ترتیب 3-2 ،2-2و 1-2بدست آورد .به عنوان مثال برای ( P(D|A,Bداریم:
))P ( D ( A B
P ( D | A, B ) P( D | ( A B ))
)P( A B
حال به صورت خیلی گسترده می توانیم پیچیدگی محاسبات مورد نیاز برای کامپیوتر در محاسبه ی احتماالت مشترک را کاهش
دهیم .توجه کنید که میزان کارایی این روش بستگی زیادی به قرار گرفتن متغیرها در عبارت اصلی دارد .به عنوان مثال اگر از
همان روند ولی به صورت کورکورانه در عبارت ) P(E,D,C,B,Aاستفاده نمائیم در نهایت به عبارت زیر خواهیم رسید:
)P(E,D,C,B,A)=P(A|E,D,C,B).P(B|E,D,C).P(C|E,D).P(D|E).P(E
این درست نیست؛ چرا که Eوابسته به Bاست ولذا الزم داریم عبارت ) P(E|Bرا همراه داشته باشیم .همین طور D ،وابسته به
Aو Bاست که در این عبارت منعکس نشده است .به عبارت دیگر جهت محاسبه ی احتمال مشترک ،نودها در عبارت باید به
روشی مرتب شوند که اگر یک نود Xبه نود دیگر Yوابسته باشد X ،قبل از Yدر اشتراک بیان شود.
به عنوان نتیجه ی این بحث ،در هنگام ساختن یک شبکه ی اعتقادی بیز؛ الزم است تا گراف آن به درستی مرتب شود .به عبارت
دیگر نود ها باید به ترتیبی قرار گیرند که ارتباطات بین نود ها ،حالت منظمی را بوجود آورد .این مطلب معموال" به این معنی
است که از علت ها شروع کنیم و در ادامه رخدادهایی که آن ها باعث شده اند را ذکر نمائیم و بعد با آن رخدادها همانند دالیل
عمل نموده و هر رخداد دیگری را که آن ها باعث می شوند اضافه نمائیم.
بر اساس ماهیت شبکه های اعتقادی بیز ،عموما" آن ها روشی کارا جهت مرتب سازی توزیع احتماالت مشترک می باشند .این
شبکه احتمال شرطی ،در صورتی که Xو Yاز یکدیگر مستقل هستند ) P(X|Yرا ذخیره نمی نماید .به عنوان مثال در شبکه ی
نشان داده شده در شکل 1-2نیازی به ذخیره ) P(E|Aنمی باشد.
13
شبکه های اعتقادی بیز
در شکل 2-2پنج نود نمایش داده شده اند که بیانگر مطالب زیر می باشند:
= Cاینکه شما به کالج خواهید رفت.
= Sاینکه شما مطالعه خواهید کرد.
= Pاینکه شما مهمانی خواهید داد.
= Eاینکه شما در امتحانتان موفق خواهید بود.
= Fاینکه شما اوقات مفرحی خواهید داشت.
حال با توجه به اطالعات داده شده ،شبکه ی مزبور را بررسی می کنیم.
این شبکه نشان می دهد که در یک نگاه کلی اگر شما به کالج بروید بر احتمال اینکه شما درس خواهید خواند ،همچنین بر احتمال
اینکه شما مهمانی خواهید داد تاثیر می گذارد .مطالعه نمودن و مهمانی دادن شما بر شانس موفقیت شما در امتحان تاثیر می
گذارد و مهمانی دادن شما بر شانس اوقات مفرح شما تاثیر گذار است.
جهت تکمیل شبکه اعتقادی بیز ،ابتدا جداولی را با عنوان جداول احتماالت شرطی؛ تنظیم و به آن اضافه نمائیم(جدول.)4-2
)P(C
0.2
)P(S
C 0.8
C
0.2
)P(P
C 0.6
C
0.5
)P(E
S P 0.6
P
S 0.9
S
P 0.1
S P
0.2
)P(F
14
شبکه های اعتقادی بیز
P 0.9
P
0.7
توجه کنید که بر اساس جداول فوق یک وابستگی بین Fو Cوجود دارد اما از آنجا که یک وابستگی مستقیم نمی باشد ،نیازی به
نگهداری اطالعات در مورد آن وجود ندارد.
جداول احتماالت شرطی ،همه ی اطالعات مورد نیاز که جهت انجام استدالل در یک محیط خاص می باشند را فراهم می آورد.
) (Cرا با استفاده از حقیقت زیر بدست آوریم: به عنوان مثال ،می توانیم مقادیری چون P
n
) P ( X 1 ,..., X n ) P ( X i | E
i 1
Eمدرکی است که در آن هر X iمستقل است به عبارت دیگر در شبکه اعتقادی بیز E ،شامل نودهایی می باشد که والدین
X iهستند .به عنوان مثال با استفاده از شکل 2-2می توانیم احتمال زیر را محاسبه نمائیم:
به این ترتیب برای Sنیاز داریم ضرب آن را در ) P(S|Cداشته باشیم چرا که Sفقط وابسته به Cمی باشد و Cدر شرایطی که
) ^Pرا داشته باشیم چرا که Eوابسته به P ما بررسی می کنیم درست است .به همین ترتیب ،برای Eنیاز داریم تا P(E|S
و Sاست و در این عبارت Sدرست و Pنادرست است.
همچنین می توانیم احتماالت شرطی پیچیده تر را محاسبه نمائیم .در واقع با توجه به ساختار شبکه ی اعتقادی ،این یک پروسه ی
واقعا" ساده می باشد .برای مثال ،به احتمال شرطی زیر توجه کنید:
)P(E|C^S^P
می توانیم در واقع Cرا از این ترکیب حذف نموده و داشته باشیم:
P(E|E^P)=0.6
به همین طریق احتمال شرطی پیچیده تر باال می تواند با حذف Fو Cبه صورت زیر در بیاید:
15
شبکه های اعتقادی بیز
می توانیم تشخیصاتی را در مورد زندگی در کالج شما با تعیین احتماالت پیشین آن انجام دهیم .به عنوان مثال ،این اجازه را
داشته باشیم که در مورد شما بگوئیم که شما می دانید که باید در هنگام ورود در کالج سرگرم باشید و به سختی درس بخوانید
همچنین می دانید که شما در امتحانتان موفق بوده اید ،اما شما می خواهید بدانید که مهمانی بدهید یا خیر.
پر واضح است که شما C، S، Eو Fرا می دانید اما Pرا نمی دانید ونیاز دارید تا بیشترین مقدار مناسب برای آن پیدا کنید .از
اینرو ،می توانید مقادیر دو عبارت زیر را مقایسه نمائید.
)P(C^S^P^E^F)=P(C).P(S|C).P(P|C).P(E|S^P).P(F|P
=0.2 × 0.8 × 0.6 × 0.6 × 0.9
=0.05184
^P(C^S
(P^E^F)=P(C).P(S|C).P
^P|C).P(E|S ) P).P(F| P
=0.2 × 0.8 × 0.4 × 0.9 × 0.7
=0.04032
با این حساب ،با احتمال بیشتری می توان گفت که شما در دوران کالج تان مهمانی داشته اید.
در این جا مثال ساده ای را از یک شبکه بیز غیر معمول ارائه می کنیم .به جای اینکه هر نود بیانگر یک فرضیه با یک قسمت
اطالعات تشخیصی باشد ،هر نود یک فصل از یک کتاب می باشد .یالهای بین نودها وابستگی بین فصل ها را نشان می دهند.
این مثال در شکل 3-2نشان داده شده است.
به عنوان مثال ،شبکه نشان می دهد که اگر شما قصد دارید فصل 8از کتاب را بخوانید که عنوان آن "استنتاج و اثبات در حل
مسائل" می باشد ،خوب است که ابتدا فصل 7که در مورد منطق مسندها و گزاره ها می باشد را مطالعه نمائید.
جهت تطبیق این شبکه به عنوان یک شبکه ی اعتقادی استاندارد ،می توانیم به هر نود به عنوان نمایش دهنده ی احتمال اینکه شما
فصل داده شده را خوانده اید ،و آنکه یک وابستگی بین این فصول وجود دارد ،نگاه کنیم .به عنوان مثال ،نود فصل 8در این
شبکه نشان از وابستگی آن به فصل 7دارد و به این معنی می باشد که اگر شما فصل 8را خوانده اید ،به احتمال زیاد فصل 7را
نیز مطالعه نموده اید .این شبکه برای شما وقتی می خواهید ترتیب خواندن فصل ها را انتخاب نمائید مفید می باشد و می توانید از
آن به عنوان چارت راهنما استفاده کنید و هنگامی که می خواهید یک فصل خاص را بخوانید ،ببینید آیا الزم است تا فصل دیگری
را قبل از آن مطالعه نمائید.
16
شبکه های اعتقادی بیز
این مساله در مورد پیش بینی وضع هوا می باشد و سوال زیر را مطرح می کند:
.1توضیح اینکه چگونه یک سیستم در مورد مساله ( )Problemبه یک توص یه ،تص میم یا actionمی رس د ،س اده ت ر
است.
.2رفع عیب کردن مسائل ساده تر خواهد بود.
.3با تحلیل دقیق ،فهمیدن اینکه چگونه ورودی ها بر نتایج تاثیر می گذارند ساده تر است.
:Bayesian Belief Networkیک ابزار قوی ب رای م دل س ازی دالیل و ت اثیرات اس ت .این اب زار ش بکه ه ای فش رده از
احتماالت که احتمال روابط بین متغییر ها را از روی تاریخچه ی روابط بین متغییر ها را از روی تاریخچه ی روابط بین متغییر
ها بدست می آورد.
Bayesian Belief Networkاز لحاظ گرافیکی یک نمودار با اجزاء Nodeو Edgeاست.
( Nodeگره) :یک متغییر را نشان می دهد که در نمودار بصورت یک بیضی که اسم متغییر روی آن نوشته ش ده اس ت ،نم ایش
داده می شود.
( Edgeلب ه) :یک edgeمش خص کنن ده یک رابط ه علت و معل ولی ( )casual Relationshipبین دو گ ره اس ت edge .در
نمودار بصورت یک خط جهت دار که جهت آن از علت به معلول است ،نمایش داده می شود.
بعنوان مثال اگر جهت edgeاز گره Xبه سمت گره Yباشد یعنی متغییر Xتاثیر مستقیمی بر متغییر Yدارد.
X Y
چگونگی تاثیر گذاری Xبر Yدر جدولی به نام "جدول احتمال شرطی" تعریف می شود.
( Statesوضعیت ها) :به مقادیری که متغییر ها می توانند داشته باشند گفته می شود.
جدول احتمال شرطی( :)CPTهر گره یک / Conditional Probability Table( CPTجدول احتمال ش رطی) ب رای خ ود
دارد.
18
شبکه های اعتقادی بیز
احتمال های شرطی بر پایه ی اطالعات دوره ای یا تجربه های گذشته در مورد آن متغییر استوار است.
بعنوان مثال اگر گره Xدارای والد ه ای P1و P2و...و Pnباش د .احتم ال متغییر Xدر وض عیت xاز دید ریاض ی بص ورت
) P(x/p1,p2,…,pnخواهد بود که در آن والد P1در وضعیت ، p1والد 2Pدر وضعیت 2pو ...و وال د Pnدر وض عیت pn
قرار دارند .برای هر والد و هر وضعیت ممکن برای آن والد یک ردیف در CPTوجود خواهد داشت که احتم ال وض عیت ه ای
فرزند را بصورت درصدی بیان می کند.
این گره دارای یک والد است .اگر دارای والد های بیش تری ب ود ب ه س مت چپ یک س تون اض افه می ک ردیم .بعن وان مث ال اگ ر
نمودار زیر را داشته باشیم که در آن وضعیت ها بصورت زیر باشد.
A B
C
States of A:
A1
A2
A3
States of B:
B1
B2
States of C:
C1
C2
C3
19
شبکه های اعتقادی بیز
Node: C
گره های بدون والد هم دارای CPTهستند با این تفاوت که CPTآنها ساده تر است و احتمال انفرادی وضعیت های آن گره تکیه
دارد CPT .برای outlookبصورت زیر خواهد بود:
20
شبکه های اعتقادی بیز
نم ودار Bayesian belief networkدر این مث ال 6گ ره از متغییر ه ای ط بیعی ب ه ن ام ه ای temperature ، outlook ،
humidity ، windy ، cloudو weather reportدارد.
گره دیگری از نوع گره تصمیم گیری به نام “ ”umbrellaدر نظر می گیریم که بردن یا نبردن چتر را نشان می دهد .ک اربر ب ر
اساس گره های weather reportو cloudاین تص میم گ یری را انج ام می ده د ،پس باید از گ ره ه ای weather reportو
cloudبه گره umbrellaلبه وجود داشته باشد.
یک گره دیگر از نوع گره بهره وری به نام Uدر نظر می گیریم .میزان بهره وری را عددی بین 0تا 100بر اساس نظرات
کاربر در نظر می گیریم.
نظرات کاربر (بهره وری) براساس متغییر های weather reportو umbrellaصورت می گیرد ،پس از این هر کدام از این
دو گره باید یک لبه به گره Uداشته باشیم.
21
شبکه های اعتقادی بیز
22
شبکه های اعتقادی بیز
در این صورت نمودار بهره وری همراه با ( beliefاحتمال یک وضعیت در هر متغییر) بصورت زیر ساخته می شود:
23
شبکه های اعتقادی بیز
:منابع
“Netica – Application for Belief Networks and Influence Diagrams” by Norsys software
corp.
“Beyond Rules: Getting more out of data with Belief Networks” by Charles River
Analytics Inc.
مشهد/ دانشگاه امام رضا1380 ,آمار واحتمال مقدماتی” دکتر جواد بهبودیان
24