You are on page 1of 24

‫شبکه های اعتقادی بیز‬

‫فهرست مطالب‬

‫‪2‬‬ ‫مقدمه ‪............................................................................................................................... :‬‬


‫‪3‬‬ ‫فصل اول‪ :‬آشنایی با روشهای احتمال و کاربرد آن در شبکه های اعتقادی بیز ‪........................‬‬
‫‪ :1-1‬احتمال ‪...........................................................................................................................‬‬
‫‪3‬‬
‫‪ :1-2‬توزیعات احتمال ترکیبی ‪......................................................................................................‬‬
‫‪4‬‬
‫‪ :1-3‬بیز ‪................................................................................................................................‬‬
‫‪4‬‬
‫‪ :1-4‬نظریه ی بیز ‪....................................................................................................................‬‬
‫‪5‬‬
‫‪ :1-5‬آموختن یک مدل ساده ی بیز ‪...............................................................................................‬‬
‫‪9‬‬
‫‪11‬‬ ‫فصل دوم ‪ :‬شبکه های اعتقادی بیز‬
‫‪11‬‬ ‫‪ :2-1‬مبانی شبکه های بیز ‪.........................................................................................................‬‬
‫‪13‬‬ ‫‪ :2-2‬مسئله ی زندگی در کالج ‪.....................................................................................................‬‬
‫‪16‬‬ ‫‪ :2-3‬مسئله ی وابستگی فصول کتاب ‪............................................................................................‬‬
‫فصل سوم ‪ :‬طرح یک مسئله ی جامع در ‪................................................................ Netica‬‬
‫‪17‬‬

‫مقدمه‬
‫امروزه دانش مدرن هوش مصنوعي ب ه دو دس ته اص لي تقس يم مي‌ش ود‪ :‬يكی ه وش مص نوعي س مبوليك يا نم ادين (‪Symbolic‬‬
‫‪ )AI‬و ديگري هوش غيرسمبوليك كه پيوندگر(‪ )Connection AI‬نیز نامیده می شود‪.‬‬
‫‪1‬‬
‫شبکه های اعتقادی بیز‬

‫‪  ‬ه وش مص نوعي س مبوليك از رهي افتي مبت ني بر محاس بات آم اري پ يروی می‌كن د و اغلب تحت عن وان ي ادگيري ماش ين يا (‬
‫‪ )Machine Learning‬طبقه‌بندي مي‌شود‪ .‬هوش سمبوليك مي‌كوشد سيستم و قواعد آن را در قالب سمبول‌ها بيان كند و با نگاشت‬
‫اطال‌عات به سمبول‌ها و قوانين به حل مس ئله ب پردازد‪ .‬در مي ان معروف‌ت رين ش اخه‌هاي ه وش مص نوعي س مبوليك مي‌ت وان ب ه‬
‫سیستم های خبره (‪ )Expert System‬و شبکه های ‪ Bayesian‬اشاره کرد‪.‬‬
‫يك سيستم خبره مي‌تواند حجم عظيمي از داده‌ها را پردازش نمايد و بر اساس تكنيك‌هاي آماري‪ ،‬نتايج دقيقي را تهيه كند ‪ .‬شبكه‌هاي‬
‫‪ Bayesian‬يك تكنيك محاسباتي براي ايجاد ساختارهاي اطالعاتي و تهيه استنتاج‌هاي منطقي از روي اطالعاتي است كه ب ه كم ك‬
‫روش‌هاي آمار و احتمال به دست‌ آمده‌اند‪ .‬بنابراين در هوش سمبوليك‪ ،‬منظور از يادگيري ماشين استفاده از الگوريتم‌هاي تشخیص‬
‫الگوها‪ ،‬تحلیل و طبقه بندی اطالعات است‪.‬‬
‫اما هوش پيوندگرا متكي بر يك منطق استقرايي است و از رهيافت « آموزش‪ /‬بهبود سيستم از طري ق تك رار» به ره‌ مي‌گ يرد‪ .‬اين‬
‫آموزش‌ها نه بر اساس نتايج و تحليل‌هاي دقيق آماري‪ ،‬بلكه مبتني بر شيوه آزم ون و خط ا و « ي ادگيري از راه تجربه» اس ت‪ .‬در‬
‫ه وش مص نوعي پيون دگرا‪ ،‬قواع د از ابت دا در اختي ار سيس تم ق رار نمي‌گ يرد‪ ،‬بلك ه سيس تم از طري ق تجرب ه‪ ،‬خ ودش ق وانين را‬
‫استخراج مي‌كند‪ .‬متدهاي ايجاد شبكه‌هاي عصبي (‪ )Neural Networks‬و نيز به‌كارگيري منط ق ف ازي (‪ )Fuzzy Logic‬در‬
‫این دسته قرار می گیرند‪.‬‬
‫براي درك بهتر تفاوت ميان اين دو شيوه به يك مثال توجه كنيد‪ .‬فرض كني د مي‌خ واهيم ي ك سيس تم ‪ OCR‬بس ازيم‪ .‬سيس تم ‪OCR‬‬
‫نرم‌افزاري است كه پس از اسكن كردن يك تكه نوشته روي كاغذ مي‌تواند متن روي آن را استخراج كن د و ب ه كاراكتره اي مت ني‬
‫ديل نمايد‪.‬‬ ‫تب‬
‫بديهي است كه چنين نرم‌افزاري به نوعي هوشمندي نياز دارد‪ .‬اين هوشمندي را با دو رهيافت متفاوت مي‌توان فراهم كرد‪ .‬اگر از‬
‫روش سمبوليك استفاده كنيم‪ ،‬قاعدتا ً بايد الگوي هندسي تم ام ح روف و اع داد را در حالت‌ه اي مختل ف در بان ك اطالع اتي سيس تم‬
‫تعريف كنيم و سپس متن اسكن شده را با اين الگوها مقايسه كنيم تا بتوانيم متن را استخراج نماييم‪ .‬در اينجا الگوهاي حرفي‪‌-‬ع ددي‬
‫يا همان سمبول‌ها پايه و اساس هوشمندي سيستم را تشكيل مي‌دهند‪ .‬روش دوم يا متد « پيوندگرا» اين است كه ي ك سيس تم هوش مند‬
‫غيرسمبوليك درست كنيم و متن‌هاي متعددي را يك به يك به آن بدهيم ت ا آرام آرام آم وزش ببين د و سيس تم را بهين ه كن د‪ .‬در اينج ا‬
‫سيستم هوشمند مي‌تواند مثال‌ً يك شبكه عصبي ي ا م دل مخفي م اركوف باش د‪ .‬در اين ش يوه س مبول‌ها پاي ه هوش مندي نيس تند‪ ،‬بلكه‬
‫فعاليت‌هاي سلسله اعصاب یک شبکه و چگونگی پیوند میان آنها مبنای هوشمندی را نشان می دهند‪.‬‬
‫اما تحقیقی ما در رابطه با یکی از شاخه های اصلی هوش مصنوعی سمبلیک یعنی شبکه های بیزین یا ‪Bayesian Network‬‬
‫می باشد‪ .‬همانگونه که در قب ل ن یز ب ه آن اش اره ش د ش بکه ه ای ‪ Bayesian‬از روش ه ای آم ار واحتم ال جهت اس تنتاج روی‬
‫ساختارهای اطالعاتی بهره می گیرد‪ .‬بنابرین برای بررسی این تکنیک باید آشنایی کاملی با روش های آمار و احتمال بک ار ب رده‬
‫شده در آن داشته باشیم‪ ،‬لذا فصل اول این تحقیق را اختصاص به این امر داده ایم‪.‬‬

‫آشنایی با روشهای احتمال و کاربرد آن در ‪Bayesian Network‬‬


‫‪2‬‬
‫شبکه های اعتقادی بیز‬

‫‪ :‬احتمال‬ ‫‪1.1‬‬

‫در این بخش مرور کوتاهی بر نظریه احتماالت و ساختارها و نمادهای بکار برده شده در آن را داریم‪ .‬نظریه احتماالت در م ورد‬
‫حالت ها و اتفاقات‪ ،‬دسته بنبدی ها و مسائلی کاربرد دارد که‪ ،‬میزان قطعیت آنها ‪ 100‬درصد نمی باشد‪.‬‬
‫همانگونه که می دانید در بحث هوش مصنوعی همواره با مسائلی روبرو هستیم که حکایت از نوعی عدم قطعیت دارد‪ .‬در مس ائل‬
‫دنیای واقعی‪ ،‬توانایی صحبت ک ردن در م ورد چیزه ایی ک ه قطعیت ندارن د می توان د بس یار مفید باش د‪ .‬بعن وان نمون ه ع املی (‬
‫‪ )Agent‬را تصور کنید که قصد پیش بینی وضع آب و هوا را دارد‪ .‬همانگونه که از لفظ پیش بی‪VV‬نی مش خص می باش د‪Agent ،‬‬
‫با نوعی عدم قطعیت در انجام کارش روبرو است‪ .‬بنابرین یکی از گزینه ه ای مناس ب ط راحی این ‪ Agent‬می توان د اس تفاده از‬
‫احتمال در نحوه ی تصمیم گیری ‪ Agent‬باشد‪ .‬حال به چگونگی کارکرد احتمال در مورد این مسئله می پردازیم‪.‬‬
‫به عنوان مثال پیش بینی وضع هوا در روز بعد می تاند بسیار مفید باشد‪ .‬در اینجا شاید بتوانیم بر اساس مش اهدات عم ومی خ ود‪،‬‬
‫یک فرضیه ی خیلی ساده و بصورت « هوا در ‪ 10‬درص د زم ان آفت ابی اس ت و در ‪ 70‬درص د زم ان ب ارانی خواه د ب ود‪ ».‬را‬
‫فرموله نماییم‪ .‬می توانیم از سمبل هایی شبیه ب ه آنچ ه ک ه در محاس بات احتم الی اس تفاده می ش وند را جهت بیان چ نین جمل ه ای‬
‫استفاده کنیم ‪:‬‬

‫‪P(S) = 0.1‬‬
‫‪P(R) = 0.7‬‬

‫اولین جمله می گوید که احتمال ‪( S‬آفتابی است) برابر ‪ 0.1‬می باش د‪ .‬همچ نین جمل ه ی دوم بیان می دارد ک ه احتم ال ‪( R‬ب ارانی‬
‫است)‪ 0.7 ،‬است‪ .‬احتماالت معموال بصورت عددی اعش اری بین ‪ 0‬و ‪ 1‬بیان می گردن د‪ .‬احتم ال ص‪VV‬فر ب ه مع نی « یقین ا ن ه» و‬
‫احتمال یک به معنی « یقینا بله» می باشد‪ .‬با این حساب ‪ P(S) = 1‬به معنی این است ک ه هم واره ه وا آفت ابی اس ت‪ .‬بس یاری از‬
‫سمبل هایی که در منطق از آنها استفاده می کردیم در احتمال نیز کاربرد دارد‪ .‬به عناون مثال )‪ P(~R‬ب ه این مع نی اس ت ک ه «‬
‫احتمال اینکه هوا بارانی نباشد» و‪ ^ R) P(S‬به این معنی است که «احتمال اینکه هوا هم آفتابی و هم بارانی باشد‪».‬‬
‫همچنین )‪ P(S v R‬که به معنی « احتمال اینکه هوا یا آفتابی باشد یا بارانی» می باشد بوسیله ی قانون روبرو مشخس می گردد‪.‬‬
‫)‪P(S v R) = P(A) + P(B) – P(S ^ R‬‬
‫در شکل زیر که به نمودار ون شهرت دارد چگونچی رسیدن به رابطه فوق را می توان بررسی کرد‪.‬‬

‫‪S‬‬ ‫‪R‬‬
‫‪S ^R‬‬

‫شکل ‪ : 1-1‬نمایش ‪S v R‬‬

‫اغلب در یک آزمایش‪ ،‬علم به اینکه پیشامدی رخ داده است‪ ،‬ممکن است در احتمال رخ دادن پیشامدی دیگر تاثیر گذارد‪ .‬مثال اگ ر‬
‫بدانیم در هفته ی اول دیماه شهری بارانی بوده است‪ ،‬وقوع این پیشامد می تواند احتمال بارانی بودن هفته ی دوم را تقلیل دهد‪.‬‬
‫نماد )‪ P(A | B‬که بصورت « احتمال ‪ B‬به شرط ‪ » A‬خوانده می شود‪ ،‬احتمال شرطی نامیده می ش ود‪ .‬ب ه عب ارت دیگ ر می‬
‫خواهیم بدانیم که احتمال درستی ‪ B‬در صورتی ک ه میدانیم ‪ A‬درس ت اس ت‪ ،‬چق در می باش د‪ P(A | B) .‬بص ورت ق انون زیر‬
‫تعریف می شود‪:‬‬
‫)‪P( A  B‬‬
‫= )‪P( A | B‬‬ ‫)‪P( B‬‬

‫در اینجا توجه به این نکته ضروری می باشد که از این رابطه در مواقعی که ‪ P(B) = 0‬است نمی توان استفاده کرد‪.‬‬
‫به عنوان نمونه‪ ،‬فرض کنید در مثال قبل احتمال اینکه هوا هم آفتابی باشد و هم بارانی‪ ،‬برابر ‪ 0.01‬است‪ .‬حال احتم ال اینکن ه وا‬
‫بارانی باشد در صورتیکه می دانیم آفتابی است را می توان چنین محاسبه نمود‪:‬‬
‫) ‪P( R  S‬‬
‫= )‪P(R | S‬‬ ‫) ‪P(S‬‬
‫‪0.01‬‬
‫=‬ ‫‪= 0.1‬‬
‫‪0 .1‬‬
‫نکته ‪:‬‬

‫‪3‬‬
‫شبکه های اعتقادی بیز‬

‫توجه داشته باشید که اختمال اینکه هوا آفتابی باشد در حالی که بارانی است متفاوت از حالت فوق می باش د‪ .‬این احتم ال بص ورت‬
‫زیر محاسبه می شود‪:‬‬

‫)‪P( S  R‬‬
‫= )‪P(S | R‬‬ ‫)‪P( R‬‬
‫‪0.01‬‬
‫=‬
‫‪0 .7‬‬
‫)‪= 0.14 ≠ 0.1 = P(R | S‬‬

‫‪ :‬توزیعات احتمال ترکیبی‬ ‫‪1.2‬‬

‫توزیع احتمال ترکیبی جهت نمایش احتماالت جمالت ترکیبی مورد اس تفاده ق رار می گ یرد‪ .‬ب ه عن وان مث ال ج دول زیر توض یح‬
‫احتمال ترکیبی دو متغیر ‪ S‬و‪ R‬را نمایش می دهد‪.‬‬

‫با توجه به جدول فوق می توان احتماالت زیر را بدست آوریم ‪:‬‬

‫‪P(S  R) = 0.01‬‬
‫‪P(S  ~R )= 0.09‬‬
‫‪P(~S  R) = 0.69‬‬
‫‪P(~S  ~R)= 0.21‬‬

‫حال به کمک احتماالت فوق می توان احتمال هر یک ‪ S‬و ‪ R‬را بصورت زیر محاسبه نمود‪:‬‬

‫‪P(S) = P(S  R) + P(S  ~R) = 0.01 + 0.09 = 0.1‬‬


‫‪P(R)= P(~S  R) + P(S  R) = 0.69 + 0.69 = 0.7‬‬

‫در نهایت با توجه به احتماالت فوق به راحتی می توان احتماالت شرطی متناظر را بدست زیر را بدست آورد ‪:‬‬

‫) ‪P( R  S‬‬ ‫)‪P( S  R‬‬


‫= )‪P(R | S‬‬ ‫‪,‬‬ ‫‪P(S‬‬ ‫|‬ ‫)‪R‬‬ ‫=‬
‫) ‪P(S‬‬ ‫)‪P( R‬‬

‫نکته‪:‬‬
‫مقادیر جدول توزیع احتمال ترکیبی با توجه به آمارگیری های سازمان هواشناسی بدست می آید‪.‬‬

‫همچنین با توجه به جدول توزیع احتمال ترکیبی می توان احتمال زیر را نیز بدست آورد ‪:‬‬
‫‪P(S  R) = 1 – P(~S ‬‬ ‫‪~R) = 1 – 0.21=0.79‬‬

‫در اینجا دوباره به مسئله ‪ Agent‬ی که هوای روز بعد را پیش بینی می ک رد ب ر می گ ردیم‪ .‬در هنگ ام ط راحی این ‪ Agent‬می‬
‫توان جدول توزیع احتمال را به عن وان دانش داخلی اولیه‪ 1‬در اختیار ‪ Agent‬ق رار داد‪ .‬س پس ‪ Agent‬ب رای پیش بینی توس ط‬
‫‪Sensor‬هایش محیط را ‪ Sense‬می کند‪ ،‬بعد از آن ‪ Agent‬با توجه ‪Percept‬های دریافتی و همچ نین دانش داخلی اش پیش بینی‬
‫می کند که هوای روز بعد چگونه است‪.‬‬
‫‪S‬‬ ‫~‪S‬‬
‫‪R‬‬ ‫‪0.01‬‬ ‫‪0.69‬‬ ‫‪ :‬بیز‬ ‫‪1.3‬‬
‫~‪R‬‬ ‫‪0.09‬‬ ‫‪0.21‬‬ ‫می‬ ‫ار‬ ‫ک‬ ‫ه‬ ‫ب‬ ‫ارز‬ ‫ب‬ ‫وی‬ ‫نح‬ ‫به‬ ‫شرطی‬ ‫احتمال‬ ‫آن‬ ‫در‬ ‫که‬ ‫احتمال‬ ‫معروف‬ ‫احتمالت‬ ‫از‬ ‫یکی‬
‫رود فرمول بیز می باشد‪ .‬این فرمول را یک کشیش انگلیسی به نام توماس بیز در سال‬
‫‪ 1763‬میالدی پیدا کرد‪.‬‬
‫مقاله ی اصلی بیز مدتها به طور جدی مورد توجه نبود‪ .‬ولی این مقال ه چن دی پیش ب رای ب ار دوم در یکی از مچالت علمی آم ار‬
‫منتشر شد‪ .‬فرمول بیز در حقیقت نقطه ی شروع رشته ای از آمار به نام آمار بیز می باشد‪ .‬آمار ب یز ک ه از لخ اط فلس فی و تعب یر‬
‫احتمال به طریق شخصی دارای اهمیت است‪ ،‬در چند دهه قبل توسط آماردان ان طی کتب و مق االت متع دد م ورد بحث و بررس ی‬
‫قرار گرفته است‪.‬‬

‫‪4‬‬
‫شبکه های اعتقادی بیز‬

‫‪ :‬نظریه ی بیز‬ ‫‪1.4‬‬

‫این نظریه جهت محاسبات احتمالی که در آن یک رخداد به طور قطع اتفاق خواهد افتاد و یا یک شرایط خاص قطعا حادث خواه د‬
‫شد‪ ،‬مورد استفاده قرار می گیرد‪.‬‬

‫‪Internal Knowledge -1‬‬

‫رابطه ی بیز بصورت زیر بیان میگردد‪:‬‬


‫) ‪P ( A | B ).P ( B‬‬
‫= )‪P(B|A‬‬ ‫)‪P ( A‬‬
‫)‪ P(A‬احتمال پیشین ‪ B‬خوانده می شود‪ P(A|B) .‬احتمال شرطی یا احتمال پسین ‪ B‬نامیده می شود‪.‬‬
‫در انجا نحوه ی بدست آمدن این را بطه را بررسی می ک نیم‪ .‬ب ا توج ه ب ه رابط ه ی احتم ال ش رطی می ت وانیم ب ه ق انون ض رب‬
‫احتمال برسیم ‪ .‬نحوه ی بدست آمدن این قانون در زیر توضیح داده شده است‪:‬‬

‫)‪P( A  B‬‬
‫= )‪P(A|B‬‬ ‫)‪ P(A  B) = P(A|B)P(B‬‬
‫)‪P( B‬‬

‫همچنین احتمال ‪ B‬به شرط ‪ A‬بصورت زیر می باشد‪:‬‬

‫)‪P ( B  A‬‬
‫= )‪P(B|A‬‬ ‫)‪ P(B  A) = P(B|A)P(A‬‬
‫)‪P ( A‬‬

‫‪‬داریم‪:‬‬ ‫با توجه به خاصیت جابجایی عملگر‬

‫)‪P(A  B) = P(B  A‬‬


‫)‪ P(A|B)P(B) = P(B|A)P(A‬‬

‫با توجه به رابطه ی فوق رابطه ی بیز را براحتی می توان بصورت زیر محاسبه نمود‪:‬‬

‫)‪P( A | B) P( B‬‬
‫= )‪P(B|A‬‬
‫)‪P ( A‬‬
‫در اینجا برای بررسی بیشتر این رابطه و همچنین کاربرد آن به ذکر چند مثال می پردازیم‪.‬‬

‫‪ : 1-4-1‬مثال تشخیص بیماری‬

‫فرض کنید در ‪ 80‬درصد مواقع وقتی یک نفر سرما می خورد‪ ،‬دمای بدنش باال می رود‪ .‬اگر ‪ A‬معادل « دمای بدنم باال است» و‬
‫همچنین ‪ B‬معادل « سرما خورده ام » باشد‪ ،‬در نتیجه میتوانیم عبارت احتمالی پسین زیر را داشته باشیم‪.‬‬
‫‪P(A|B) = 0.8‬‬
‫حال فرض کنید که می دانیم که در هر لحظه ی زمانی از هر ‪ 10000‬نفر یک نفر سرما خورده اس ت‪ ،‬و از ه ر ‪ 1000‬نف ر یک‬
‫نفر دمای بدنش باالست‪ .‬می توانیم این احتماالت پیشین را چنین بنویسیم‪:‬‬
‫‪P(A) = 0.001‬‬
‫‪P(B) = 0.0001‬‬
‫دوباره فرض کنید که دمای بدن شما باال است‪ .‬چقدر احتمال دارد که شما سرما خورده باشید؟ این مقدار ب ه س ادگی توس ط تئ وری‬
‫احتمال بیز قابل محاسبه می باشد‪:‬‬
‫)‪P( A | B) P( B‬‬ ‫‪0.8 * 0.0001‬‬
‫= )‪P(B|A‬‬ ‫=‬ ‫‪= 0.008‬‬
‫)‪P ( A‬‬ ‫‪0.001‬‬
‫با این حساب نشان دادیم که فقط یه این دلیل که دمای بدن شما باالست نمی توان گفت که شما سرما خ ورده اید‪ .‬در واق ع‪ ،‬احتم ال‬
‫اینکه سرما خورده باشید ‪ 8‬از ‪ 1000‬است که عدد کوچکی می باشد‪.‬‬
‫حال تصور کنید که قصد طراحی یک عامل به نام پزشک را دارید‪ .‬پارامترهای اساسی که ب رای این عام ل باید در نظ ر بگیرید‬
‫بصورت زیر می باشد‪:‬‬
‫‪ :‬پزشک‬ ‫‪Agent‬‬
‫‪ :‬دریافت عالیم بیماری‬ ‫‪Percept‬‬
‫‪5‬‬
‫شبکه های اعتقادی بیز‬

‫‪ :‬تجویز نسخه‬ ‫‪Action‬‬


‫‪ :‬تشخیص بیماری‬ ‫‪Goal‬‬
‫‪ :Environment‬مطب‬
‫الزم به ذکر است که نتایج آمار و احتمال مربوط به مثال تش خیص بیم اری این بخش ب ه عن وان دانش اولیه ب ه ‪ Agent‬داده ش ده‬
‫است ‪.‬‬
‫حال تصور کنید که ‪ Agent‬مشغول معاینه ی بیماری است ‪ Agent .‬با توجه به ‪Percept‬هایش متوج ه می ش ود ک ه دم ای ب دن‬
‫بیمار باال است‪ .‬بنابراین وضعیت جاری ‪ Agent‬وضعیتی می باشد که نشان می دهد ‪ Agent‬مطمئن اس ت دم ای ب دن بیم ار ب اال‬
‫است(‪ ، )A‬با توجه با مطالب گفته شده برای ‪ Agent‬دو نوع ‪ Action‬وجود دارد‪:‬‬
‫‪ -1‬تجویز نسخه برای سرماخورگی‬
‫‪ -2‬تجویز نسخه برای کاهش دمای بدن‬

‫‪A‬‬
‫) |‪P (B A‬‬ ‫) |‪P (~B A‬‬

‫‪B‬‬ ‫‪~B‬‬
‫شکل ‪ : 2-1‬قسمتی ‪ Bayesian Network‬مثال فوق‬

‫‪ Agent‬برای تصمیم گیری و انجام مناسب ترین ‪ Action‬باید برسی کند که آیا بیمار سرما خورده (‪ )B‬یا نه (~‪ Agent ،)B‬می‬
‫تواند از تئوری احتمال بیز استفاده کند و مقدار دو احتمال نشان داده شده در شکل را به کمک دانش اولیه محاس به نم وده س پس ب ا‬
‫توجه به مقادیر بدست آمده ‪ Action‬مناسب را انجام دهد‪.‬‬
‫نکته‪:‬‬
‫شرح کامل ‪ Bayesian Network‬و چگونگی رسم آن‪ ،‬به طور کامل در فصل بعد توضیح داده خواهد شد‪.‬‬

‫تئوری بیز را می توان برای احتماالت شرطی بیشتر از دو متغیر به صورت زیر بسط داد‪:‬‬

‫) ‪P ( E1  ...En | H ).P ( H‬‬


‫= )‪P(H|E1  ….En | H‬‬
‫)‪P ( E1  ...  En‬‬

‫چنانچه هر کدام از ‪ E1‬تا ‪ En‬ها در صورت داشتن فرضیه ‪ ،H‬مستقل از یکدیگر باشند‪ ،‬می توان عبارت فوق را بصورت زیر‬
‫دو مرتبه نوشت‪:‬‬

‫) ‪P ( E1 | H )  ....  P ( En | H )  P ( H‬‬
‫= )‪P(H|E1  ….En | H‬‬ ‫)‪P ( E1  ...  En‬‬

‫‪ : 1-4-2‬مثال اعتبار شهادت‬


‫مثالی دیگر را بررسی می کنیم‪.‬در شهر کمبریج دو کمپانی تاکسی رانی وجود دارد‪ .‬یکی از کمپانی ه ا از تاکس ی زرد و کمپ انی‬
‫دیگر از تاکسی های سفید استفاده می کنند‪ .‬کمپانی تاکس ی ه ای زرد ‪ 90‬دس تگاه ماش ین و کمپ انی ماش ین ه ای س فید ‪ 10‬دس تگاه‬
‫ماشین دارد‪.‬‬
‫گزارش شده تصادفی رخ داده است و راننده فرار کرده است‪ ،‬همچ نین چش مان یک ش اهد گ واه می ده د ک ه او مطمئن اس ت ک ه‬
‫تاکسی‪ ،‬سفید بوده است‪.‬‬
‫تاکنون اطالعات زیر را داریم‪:‬‬
‫)احتمال اینکه آن تاکسی خاص زرد باشد( ‪P(Y) = 0.9‬‬
‫)احتمال اینکه آن تاکسی خاص سفید باشد( ‪P(W) =0.1‬‬

‫بیایید فرض دیگری نیز بکنبم‪ ،‬بر اساس فرض جدید کارگاهان معتق د هس تند ک ه در ه وای م ه آل ود رخ دادن تص ادف‪ ،‬احتم ال‬
‫درست تشخیص دادن تاکسی توسط شاهد ‪ 0.75‬می باشد‪.‬‬
‫با توجه به اینکه شاهد اعالم کرده است که تاکسی سفید بوده است‪ ،‬چقدر احتمال دارد که او درست گفته باشد؟‬
‫از نماد )‪ P(CW‬جهت نمایش احتمال اینکه فرد مقصر راننده ی یک تاکسی سفید ب وده و از )‪ P(CR‬جهت نم ایش احتم ال اینک ه او‬
‫راننده ی ماشین زرد بوده استفاده می کنیم‪.‬‬
‫‪6‬‬
‫شبکه های اعتقادی بیز‬

‫همچنین از )‪ P(WW‬جهت داللت بر احتمال اینکه شاهد بگوید که او ماشین س فید دیده اس ت و )‪ P(WY‬جهت اینک ه او بگوید ک ه‬
‫ماشین زرد دیده است استفاده می کنیم‪.‬‬
‫حال‪ ،‬اگر یک شاهد واقعا یک ماشین زرد دیده باشد‪ ،‬در ‪ 75‬درصد مواقع او می گوید که ماشین زرد بوده و اگر یک ماشین س فید‬
‫دیده باشد‪ ،‬در ‪ 75‬درصد زمان ها او خواهد گفت که ماشین سفید بوده است‪ .‬با این حساب اطالعات زیر را داریم‪:‬‬

‫‪P(CY) =0.9‬‬
‫‪P(CW)=0.1‬‬
‫‪P(WW|CW)= 0.75‬‬
‫‪P(WY|CY) =0.75‬‬

‫در نتیجه می توانیم با اعمال تئوری بیز احتمال درستی شهادت این ش اهد‪ ،‬وقتیک ه گفت ه اس ت ماش ین س فید ب وده اس ت را حس اب‬
‫نماییم‪.‬‬
‫‪0.75 * 0.1‬‬
‫=)‪P(CW|WW‬‬ ‫)‪P (Ww‬‬

‫حال الزم داریم تا )‪ P(WW‬را محاسبه نماییم‪ .‬احتمال پیشینی که داللت بر این دارد که شاهد با چه احتمالی گفته است که او ماش ین‬
‫سفید دیده است‪.‬‬
‫چنین تصور کنید که اگر به این شاهد به ص ورت ک امال تص ادفی ‪ 1000‬ماش ین نش ان داده ش ود انتط ار داریم ک ه ‪ 900‬ت ا از این‬
‫ماشینها زرد باشد و فقط ‪100‬تای آنها سفید باشد‪ .‬شاهد متاسفانه ‪ 250‬ماشین را اشتباه تش خیص می ده د‪ :‬از ‪ 900‬ماش ین زرد ب ه‬
‫طور اشتباه ‪225‬تای آنها را می گوید که سفید بوده و از ‪ 100‬ماشین سفید باقیمانده او اشتباها ‪25‬تای آنها را زرد دیده است‪ .‬با این‬
‫حساب در مجموع‪ ،‬او معتقد است که ‪ 300‬ماشین سفید دیده است‪ .‬این در حالی است که فق ط ‪100‬ت ای آنه ا س فید ب وده ان د‪ .‬ب ا این‬
‫حساب )‪ P(WW‬برابر است با‪:‬‬

‫‪300‬‬
‫= )‪P(WW‬‬ ‫‪= 0.3‬‬
‫‪1000‬‬

‫حال می توانیم معادله ی خود را جهت یافتن )‪ P(CW|WW‬کامل کنیم‪:‬‬

‫‪0.75 * 0.1‬‬
‫= )‪P(CW|WW‬‬ ‫‪= 0.25‬‬
‫‪0 .3‬‬

‫به عبارت دیگر اگر این شاهد بگوید که ماشین سفید بوده است‪ ،‬احتمال اینکه واقعا ماشین سفید باش د فق ط ‪ 0.25‬اس ت یع نی در ‪3‬‬
‫برابر زمان ها در واقع ماشین زرد بوده است‪.‬‬
‫در این مثال تئوری بیز تعداد واقعی تاکسی های هر رنگ شهر را به حساب آورده است ‪ .‬اگر شاهد گفت ه ب ود ک ه او ب ک تاکس ی‬
‫زرد دیده ‪ ،‬این احتمال بسیار زیاد بود که او راست گفته باشد‪ ،‬این احتمال بیشتر به این دلیل است که تعداد تاکس ی ه ای زرد خیلی‬
‫بیشتر از تاکسی های سفید است‪ .‬اگر شاهد به درستی و به طور کامل مش اهده می ک رد ب ه گون ه ای ک ه هیچ خط ایی نمی داش ت‪،‬‬
‫احتمال فوق برابر ‪ 1‬می بود‪.‬‬
‫این مثال همچنین در روشن شدن این واقعیت که در دنیای واقعی و در بسیاری از موقعیت ها ‪ ،‬اطالع ات ک افی جهت اس تفاده از‬
‫تئوری بیز را در اختیار داریم‪ ،‬به ما کمک می کند‪ .‬چنین به نظر می رسد که جهت اعمال و استفاده از تئوری بیز الزم اس ت ک ه‬
‫شرایط خاص و پیجیده ای مهیا باشد‪ ،‬اما در واقع فراهم نمودن شرایط استفاده از این تئوری بسیار ساده ت ر از س ایر روش ه ا می‬
‫باشد‪.‬‬

‫‪ : 1-4-3‬مقایسه احتاالت شرطی‬

‫در بسیاری از موقعیت ها ‪ ،‬مقایسه دو احتمال می تواند مفید باش د‪ .‬مخصوص ا در انج ام یک تش خیص در بین یک مجموع ه از‬
‫مدارک و شواهد که قرار است بر این اساس از بین یک تعداد فرضیه ی ممکن یکی انتخاب گردد‪.‬‬
‫به عنوان نمونه‪ ،‬مثال پزشکی داده شده در قسمت ‪ 1-4-1‬را توسعه می دهیم‪ .‬در آنج ا از ‪ A‬جهت نم ایش این واقعیت ک ه «دم ای‬
‫بدن من باال است» و از ‪ B‬جهت نمایش این فرضیه که «من سرما خورده ام» استفاده نمودیم و داشتیم‪:‬‬

‫‪P(A)=0.001‬‬
‫‪P(B)=0.0001‬‬
‫‪P(A|B)=0.8‬‬

‫حال اگر از ‪ C‬جهت نمایش فرضیه ی «من طائون دارم» استفاده کنیم و داشته باشیم‪:‬‬
‫‪7‬‬
‫شبکه های اعتقادی بیز‬

‫‪P(C)=0.000000001‬‬
‫‪P(A|C)=0.99‬‬

‫به عبارت دیگر احتمال طائون داشتن افراد بسیار بسیار کم است اما اگر چنین باشد‪ ،‬در اغلب موارد یقینا دمای بدنشان باال خواه د‬
‫بود‪ .‬در این وضعیت ‪ ،‬وقتی می خواهیم تشخیص دهیم که اگر کسی دمای بدنش باالست‪ ،‬طائون دارد یا سرما خ ورده اس ت به تر‬
‫است ببینیم کدامیک از فرصیه ها ‪ B‬یا ‪ C‬احتمال رخ دادن بیشتری دارند‪:‬‬

‫)‪P( A | B)  P( B‬‬
‫= )‪P(B|A‬‬ ‫)‪P ( A‬‬
‫) ‪P( A | C )  P (C‬‬
‫= )‪P(C|A‬‬
‫)‪P( A‬‬

‫پر واضح است که جهت مقایسه ‪ B‬و ‪ C‬در صورت نداشتن ‪ A‬می ت وان )‪ P(A‬را از دو معادل ه ی ف وق ح ذف نم ود و رابط ه ی‬
‫زیر را بدست آورد‪.‬‬

‫)‪P ( B | A‬‬ ‫)‪P( A | B)  P( B‬‬


‫=‬
‫)‪P (C | A‬‬ ‫) ‪P ( A | C )  P (C‬‬
‫‪0.8 * 0.001‬‬
‫= ‪‬‬ ‫‪= 842105‬‬
‫‪0.95 * 0.000000008‬‬

‫با این حساب صدها هزار برابر احتمال اینکه باال بودن دمای بدن دلیل بر وجود طائون باشد‪ ،‬دلیل سرماخوردگی می باشد‪.‬‬

‫‪ : 1-4-4‬نرمال سازی‬

‫نرمال سازی پروسه ای است که در آن احتماالت پسین یک جفت متغیر بر یک مق دار ث ابت تقس یم می ش وند ت ا مطمئن ش ویم ک ه‬
‫مجموع آنها ‪ 1‬می شود‪.‬‬
‫این مطلب می تواند با توجه به دو معادله ی زیر انجام گیرد‪:‬‬

‫)‪P( A | B)  P( B‬‬
‫= )‪P(B|A‬‬
‫)‪P ( A‬‬
‫) ‪P ( A |~ B )  P (~ B‬‬
‫= )‪P(~B|A‬‬ ‫)‪P ( A‬‬

‫با دانستن اینکه ‪ A‬درست است‪ B ،‬باید یا درست باشد و یا نادرست باشد‪ .‬یعنی داریم‪:‬‬

‫‪P(A|B) + P(~B|A) = 1‬‬

‫از این رو می توانیم دو معادله ی باال را با هم جمع کینم و داشته باشیم‪:‬‬


‫)‪P( A | B) P( B‬‬ ‫) ‪P ( A |~ B ) P (~ B‬‬
‫=‪1‬‬ ‫‪+‬‬
‫)‪P ( A‬‬ ‫)‪P ( A‬‬
‫)‪ P ( A)  P( A | B) P( B)  P( A |~ B ) P(~ B‬‬

‫حال می توانیم )‪ P(A‬را با معادل آن در تئوری بیز جایگزین نمود‪:‬‬

‫)‪P ( A | B )  P ( B‬‬
‫) ‪P(B|A) = P ( A | B)  P ( B)  P( A |~ B ) P (~ B‬‬

‫با این حساب می توان از تئوری بیز جهت محاسبه ی احتمال شرطی )‪ P(B|A‬بدون نیاز به دانستن و یا محاسبه ی )‪ P(A‬استفاده‬
‫نمود‪.‬‬
‫معادله ی فوق معموال بصورت زیر نوشته می شود‪:‬‬

‫‪8‬‬
‫شبکه های اعتقادی بیز‬

‫) ‪P(B|A) =   P( A | B)  P( B‬‬

‫در معادله ی فوق ‪ α‬ثابت نرمال سازی خواهد بود‪:‬‬

‫‪1‬‬
‫)‪P α = P( A | B)  P( B )  P( A |~ B)  P(~ B‬‬

‫حال دوباره به مسئله ی تشخیص پزشکان بر می گردیم‪ .‬واقعیت هایی که داریم بصورت زیر می باشد‪:‬‬

‫‪P(A) = 0.001‬‬
‫‪P(B) = 0.0001‬‬
‫‪P(A|B) = 0.8‬‬

‫حال فرض کنید که ‪ P(A|~B) = 0.00099‬باشد‪ .‬این احتمال شرطی به این مطلب اشاره می کند که چقدر احتمال دارد یک نف ر‬
‫دمای بدن باالیی داشته باشد در حالی که سرما نخ ورده باش د‪ .‬ح ال می ت وانیم از معادل ه ی ذیل ب ه منظ ور محاس به ی )‪P(B|A‬‬
‫استفاده کنیم‪:‬‬

‫) ‪P ( A | B) P ( B‬‬
‫)‪P(B|A) = P( A | B ) P ( B )  ( P ( A |~ B ) P (~ B‬‬
‫‪0.0099 * 0.999‬‬
‫=‬
‫‪0.00099 * 0.9999  0.8 * 0.0001‬‬
‫‪0.00008‬‬
‫=‬ ‫‪= 0.075‬‬
‫‪0.001069901‬‬

‫به همین طریق می توان )‪ P(~B|A‬را محاسبه نمود‪:‬‬


‫) ‪P ( A |~ B )  P (~ B‬‬
‫= )‪P(~B|A‬‬
‫) ‪P ( A |~ B )  P (~ B )  P ( A | B )  P ( B‬‬
‫‪0.0099 * 0.9999‬‬
‫=‬
‫‪0.00099 * 0.9999  0.8 * 0.001‬‬
‫‪0.000989901‬‬
‫=‬ ‫‪= 0.925‬‬
‫‪0.001069901‬‬

‫نتیجه ی پروسه ی نرمال سازی این بوده است که مطمئن باشیم مجموعه ‪P(B|A) + P(~B|A) =1‬‬
‫می باشد‪.‬‬

‫‪ :‬آموختن یک مدل ساده ی بیز‬ ‫‪1.5‬‬

‫یک مدل خیلی ساده جهت یادگیری را می توان از روی قانون بیز بدست آورد‪.‬‬
‫در تمام مب احث قب ل در م ورد احتم ال فرض یه ه ا و یا اس ناد و م دارک ص حبت نم ودیم‪ .‬جهت اس تفاده از تئ وری احتم االت در‬
‫یادگیری‪ ،‬باید در مورد میزان احتمال درستی بعضی فرضیه ها با داشتن یک مجموعه از مدارک داده ش ده ص حبت ک نیم‪ .‬در این‬
‫مبحث از سمبول های مشابه استفاده می کنیم و می نویسیم‪:‬‬

‫)‪P(H|E‬‬

‫بدین ترتیب با داشتن یک مجموعه از رویدادها‪ ،‬ک اربر می توان د تع یین نماید ک ه ب ه چ ه فرض یه ای معتق د باش د‪ .‬جهت این ک ار‬
‫احتمال پسین هر کدام را محاسبه می نماید‪ .‬فرض کنید که ‪ n‬فرضیه ی ممکن‪ H1،....،Hn ،‬وجود داشته باشد‪ .‬با این حس اب ب رای‬
‫هر ‪ Hi‬داریم‪:‬‬

‫) ‪P ( E | Hi )  P ( Hi‬‬
‫= )‪P(Hi|E‬‬ ‫) ‪P( E‬‬

‫‪9‬‬
‫شبکه های اعتقادی بیز‬

‫با این روش الگوریتم برای هر فرضیه ی ممکن )‪ P(Hi|E‬را محاس به می نماید و آنی را انتخ اب می کن د بزرگ ترین احتم ال را‬
‫دارد‪ .‬به روشی مشابه سیستم می تواند از این رون جهت تعیین فعالیتی که باید رخ دهد استفاده نماید‪ .‬در این حالت ‪ Hi‬فرض یه ای‬
‫است که بر اساس آن‪ Ai ،‬بهترین عملی می باشد که باید در وضعیت جاری اتفاق بیافتد‪.‬‬
‫در واقع‪ ،‬فرمول باال در این وضعیت می تواند ساده شود‪ ،‬چرا که )‪ P(E‬مستقل از ‪ Hi‬می باشد و مقدار یکسانی برای هر فرضیه‬
‫وجود دارد‪ .‬لذا از آنجا که ما به دنبال فرضیه ای با بیشترین مقدار‬
‫مقدار احتمال پسین می باشیم‪ ،‬می توانیم )‪ P(E‬را از محاسبات حذف نماییم و فقط به دنبال بیشینه کردن مق دار )‪P(E|Hi).P(Hi‬‬
‫باشیم‪.‬‬
‫در واقع‪ ،‬اگر فرض کنیم که همه ی فرضیه ها مش ابه و مس اوی هس تند و هیچگون ه اطالع ات اض افی نداش ته باش ند ( در حقیقت‬
‫برای هر ‪ i‬و ‪j‬ها‪ P(Hj)=P(Hi) ،‬باشد)‪ ،‬می توانیم این مطلب اضافه را حذف کنیم و فق ط ب ه ط ور س اده فرض یه ای را انتخ اب‬
‫نماییم که در آن )‪ P(E|Hi‬بیشترین باشد‪ .‬این مقدار به عنوان احتمال رخ دادن ‪ E‬با داشتن فرضیه ‪ Hi‬نامیده می شود‪.‬‬

‫شبکه های اعتقادی بیز‬

‫‪ :2-1‬مبانی شبکه های بیز‬

‫در فصل پیشین مطالبی را پیرامون عدم قطعیت فرا گرفتیم و آموختیم که چگونه از طریق قوانین احتمال می توان امکان رویداد‬
‫یا عدم رویداد یک واقعه را پیش بینی کرد‪ .‬در این فصل عالوه بر استفاده از مفاهیم گذشته نیز به مفهوم وابستکی می پردازیم‪.‬‬
‫مفهوم وابستکی در تئوری احتماالت بسیار مهم هستند‪ .‬دو رخداد ‪ A‬و ‪ B‬غیر وابسته یا مستقل هستند اگر احتمال روی دادن ‪A‬‬
‫به طور کامل به رخداد یا عدم رخداد ‪ B‬مرتبط نباشد‪.‬‬
‫به عنوان مثال در پرتاب دو سکه یکی پس از دیگری احتمال اینکه اولین سکه رو بیاید و احتمال اینکه دومین سکه نیز رو بیاید‬
‫کامال" از یکدیگر مستقل هستند و دو احتمال مستقل هستند‪.‬‬
‫مطابق قوانین احتمال اگر ‪ A‬و ‪ B‬مستقل باشند احتمال اینکه هر دو با هم رخ دهند به صورت زیر قابل محاسبه می باشد‪:‬‬
‫‪10‬‬
‫شبکه های اعتقادی بیز‬

‫)‪P(A^ B)  P(A).P(B‬‬ ‫فرمول ‪1-2‬‬

‫اما در صورتی که ‪ A‬وابسته به ‪ B‬باشد‪ ،‬معادله ی فوق دیگر صادق نیست و قوانین به صورت زیر تغییر می کند‪:‬‬

‫)‪P( A  B‬‬
‫‪P ( B | A) ‬‬ ‫فرمول ‪2-2‬‬
‫)‪P( A‬‬

‫‪:‬در اینصورت داریم‬


‫)‪P ( A  B )  P ( B | A).P ( A‬‬ ‫فرمول ‪3-2‬‬

‫با مقایسه ی دو معادله ی فوق می توانیم درک کنیم که ‪ A‬و ‪ B‬مستقل هستند اگر‪:‬‬

‫) ‪P ( B | A)  P ( B‬‬

‫در این حالت احتمال رخ دادن ‪ ،B‬از رخداد یا عدم رخداد ‪ A‬تاثیر نمی پذیرد‪.‬‬
‫شبکه ی بیز یا شبکه ی اعتقادی بیز یک گراف جهت دار بدون دور است که نودها در آن نمایش دهنده مدارک یا فرضیه ها‬
‫هستند و یال ها بیانگر وابستگی ها می باشند به طوری که یک یال که بین دو نود وجود دارد بیانگر وابستگی آن دو نود می باشد‪.‬‬
‫به عنوان مثال شبکه ی اعتقادی شکل ‪ 1-2‬شامل ‪ 5‬نود می باشد‪ .‬در این شکل دو نود ‪ A‬و ‪ B‬مدرک و نود های ‪ C‬و ‪ D‬و ‪E‬‬
‫فرضیه می باشند‪.‬‬

‫شکل ‪ 1-2‬یک شبکه ی اعتقادی ساده‬

‫در شکل فوق یال های بین نود ها بیانگر وابستگی می باشند بر اساس این نمودار ‪ C‬و ‪ D‬هر دو وابسته به ‪ A‬می باشند و ‪ D‬و ‪E‬‬
‫هر دو وابسته به ‪ B‬هستند‪ .‬نود هایی که یالی میان آن ها وجود ندارد مستقل هستند‪ .‬به عنوان مثال در شکل فوق ‪ B‬از ‪ A‬مستقل‬
‫می باشد‪.‬‬
‫در یک شبکه ی بیز‪ ،‬هر نود یک سری احتماالت دارد که به آن نسبت داده شده اند‪ .‬این احتماالت بر اساس مقادیر نود هایی‬
‫محاسبه می شوند که به آن ها وابسته اند‪ .‬بحث را در شکل فوق دنبال می کنیم؛ ‪ A‬و ‪ B‬هر دو تنها احتماالت پیشین )‪ P(A‬و‬
‫)‪ P(B‬را دارا می باشند زیرا به هیچ نود دیگری وابسته نیستند‪ .‬در مقابل ‪ C‬و ‪ D‬هر کدام فقط به یک نود دیگر وابسته هستند‪ ،‬از‬
‫اینرو برای محاسبه ی )‪ P(C‬دو حالت متفاوت را بایستی در نظر گرفت (به جدول ‪ 1-2‬مراجعه کنید)‪:‬‬
‫‪ A .1‬درست باشد‪.‬‬
‫‪ A .2‬درست نباشد‪.‬‬
‫همچنین برای محاسبه ی ‪ P(D)، 4‬حالت را بسته به مقادیر ‪ B‬و ‪ ،A‬باید در نظر گرفت‪ .‬در حالت کلی در شبکه ی نشان داده‬
‫شده در شکل ‪ 1-2‬احتماالت شرطی زیر مورد استفاده قرار می گیرند‪:‬‬

‫‪11‬‬
‫شبکه های اعتقادی بیز‬

P ( A)
P( B)
P (C | A)
P (C | A)
P( D | A  B)
P ( D | A  B )
P ( D | A  B )
P ( D |  A  B )
P( E | B )
P ( E | B )

‫تمام این محاسبات را می توان در جدولی با عنوان جدول توزیعات احتمال ترکیبی که در فصل قبل با آن آشنا شدید گردآوری می‬
:‫کنیم‬

Marginal Probability of
  C
A
A P(C^A) P(A)

A
P(C^  P( 
A)
A)
Marginal Probability of
P(C)
C

‫ جدول توزیعات احتمال ترکیبی‬1-2 ‫جدول‬


C ‫بر اساس مقادیر‬A

Marginal Probability of
  E
B
B P(E^B) P(B)
B
P(E^  P( 
B)
B)
Marginal Probability of
P(E)
E

‫ جدول توزیعات احتمال ترکیبی‬2-2 ‫جدول‬


E ‫بر اساس مقادیر‬B

Marginal
  D
Probability of A,B
A B P ( D  ( A  B )) P(A^B)
A B P ( D  ( A  B)) P(A^  B)
A B P ( D  (A  B )) P(  A^B)
A B P ( D  (A  B )) P(  
A^ B)
Marginal P(D)

12
‫شبکه های اعتقادی بیز‬

‫‪Probability of D‬‬

‫جدول ‪ 3-2‬جدول توزیعات احتمال ترکیبی‬


‫‪ B‬و ‪ A‬بر اساس مقادیر‬

‫همان طور که گفته شد شکل ‪ 1-2‬بیانگر یک شبکه ی اعتقادی ساده است اما در صورتی که لیست تمام احتماالت باال را با آن‬
‫ادغام کنیم‪ ،‬به یک شبکه ی اعتقادی کامل دست می یابیم‪.‬‬
‫با استفاده از یک شبکه ی بیز می توان احتمال مشترک را محاسبه نمود‪ .‬به عنوان مثال اگر بخواهیم بدانیم با چه احتمالی یک‬
‫عامل در وضعیت ‪ A، B، C، D‬و ‪ E‬قرار می گیرد به صورت زیر عمل می کنیم‪:‬‬

‫)‪P(A,B,C,D,E‬‬

‫در اینصورت طبق فرمول ‪ 3-2‬داریم‪:‬‬

‫)‪P(A,B,C,D,E)=P(E|A,B,C,D).P(A,B,C,D‬‬

‫‪:‬دوباره فرمول ‪ 3-2‬را به صورت بازگشتی اعمال می کنیم تا به عبارت زیر برسیم‬

‫)‪P(A,B,C,D,E)= P(E|A,B,C,D).P(D|A,B,C).P(C|A,B).P(B|A).P(A‬‬

‫در واقع ماهیت شبکه ی اعتقادی‪ ،‬به ما اجازه می دهد که این عبارت را ساده سازیم و از آنجا که می دانیم‪ ،‬به عنوان مثال ‪E‬‬
‫وابسته به ‪ A، C‬یا ‪ D‬نیست می توانیم عبارت )‪ P(E|A,B,C,D‬را به )‪ P(E|B‬کاهش دهیم‪ .‬بنابراین داریم‪:‬‬

‫)‪P(A,B,C,D,E)=P(E|B).P(D|A,B).P(C|A).P(B).P(A‬‬

‫هر کدام از عبارات )‪ P(E|B‬و )‪ P(D|A,B‬و )‪ P(C|A‬را به ترتیب می توان با استفاده از فرمول ‪ 2-2‬و همچنین داده های‬
‫موجود در جداول به ترتیب ‪ 3-2 ،2-2‬و ‪ 1-2‬بدست آورد‪ .‬به عنوان مثال برای (‪ P(D|A,B‬داریم‪:‬‬

‫))‪P ( D  ( A  B‬‬
‫‪P ( D | A, B )  P( D | ( A  B )) ‬‬
‫)‪P( A  B‬‬

‫حال به صورت خیلی گسترده می توانیم پیچیدگی محاسبات مورد نیاز برای کامپیوتر در محاسبه ی احتماالت مشترک را کاهش‬
‫دهیم‪ .‬توجه کنید که میزان کارایی این روش بستگی زیادی به قرار گرفتن متغیرها در عبارت اصلی دارد‪ .‬به عنوان مثال اگر از‬
‫همان روند ولی به صورت کورکورانه در عبارت )‪ P(E,D,C,B,A‬استفاده نمائیم در نهایت به عبارت زیر خواهیم رسید‪:‬‬

‫)‪P(E,D,C,B,A)=P(A|E,D,C,B).P(B|E,D,C).P(C|E,D).P(D|E).P(E‬‬

‫این درست نیست؛ چرا که ‪ E‬وابسته به ‪ B‬است ولذا الزم داریم عبارت )‪ P(E|B‬را همراه داشته باشیم‪ .‬همین طور‪ D ،‬وابسته به‬
‫‪ A‬و ‪ B‬است که در این عبارت منعکس نشده است‪ .‬به عبارت دیگر جهت محاسبه ی احتمال مشترک‪ ،‬نودها در عبارت باید به‬
‫روشی مرتب شوند که اگر یک نود ‪ X‬به نود دیگر ‪ Y‬وابسته باشد‪ X ،‬قبل از ‪ Y‬در اشتراک بیان شود‪.‬‬
‫به عنوان نتیجه ی این بحث‪ ،‬در هنگام ساختن یک شبکه ی اعتقادی بیز؛ الزم است تا گراف آن به درستی مرتب شود‪ .‬به عبارت‬
‫دیگر نود ها باید به ترتیبی قرار گیرند که ارتباطات بین نود ها‪ ،‬حالت منظمی را بوجود آورد‪ .‬این مطلب معموال" به این معنی‬
‫است که از علت ها شروع کنیم و در ادامه رخدادهایی که آن ها باعث شده اند را ذکر نمائیم و بعد با آن رخدادها همانند دالیل‬
‫عمل نموده و هر رخداد دیگری را که آن ها باعث می شوند اضافه نمائیم‪.‬‬
‫بر اساس ماهیت شبکه های اعتقادی بیز‪ ،‬عموما" آن ها روشی کارا جهت مرتب سازی توزیع احتماالت مشترک می باشند‪ .‬این‬
‫شبکه احتمال شرطی‪ ،‬در صورتی که ‪ X‬و ‪ Y‬از یکدیگر مستقل هستند )‪ P(X|Y‬را ذخیره نمی نماید‪ .‬به عنوان مثال در شبکه ی‬
‫نشان داده شده در شکل ‪ 1-2‬نیازی به ذخیره )‪ P(E|A‬نمی باشد‪.‬‬

‫‪ :2 -2‬مسئله ی زندگی در کالج‬

‫‪13‬‬
‫شبکه های اعتقادی بیز‬

‫شکل ‪ 2-2‬شبکه ی بیز زندگی در کالج‬

‫در شکل ‪ 2-2‬پنج نود نمایش داده شده اند که بیانگر مطالب زیر می باشند‪:‬‬
‫‪ = C‬اینکه شما به کالج خواهید رفت‪.‬‬
‫‪ = S‬اینکه شما مطالعه خواهید کرد‪.‬‬
‫‪ = P‬اینکه شما مهمانی خواهید داد‪.‬‬
‫‪ = E‬اینکه شما در امتحانتان موفق خواهید بود‪.‬‬
‫‪ = F‬اینکه شما اوقات مفرحی خواهید داشت‪.‬‬
‫حال با توجه به اطالعات داده شده‪ ،‬شبکه ی مزبور را بررسی می کنیم‪.‬‬
‫این شبکه نشان می دهد که در یک نگاه کلی اگر شما به کالج بروید بر احتمال اینکه شما درس خواهید خواند‪ ،‬همچنین بر احتمال‬
‫اینکه شما مهمانی خواهید داد تاثیر می گذارد‪ .‬مطالعه نمودن و مهمانی دادن شما بر شانس موفقیت شما در امتحان تاثیر می‬
‫گذارد و مهمانی دادن شما بر شانس اوقات مفرح شما تاثیر گذار است‪.‬‬
‫جهت تکمیل شبکه اعتقادی بیز‪ ،‬ابتدا جداولی را با عنوان جداول احتماالت شرطی؛ تنظیم و به آن اضافه نمائیم(جدول‪.)4-2‬‬

‫)‪P(C‬‬
‫‪0.2‬‬

‫)‪P(S‬‬
‫‪C‬‬ ‫‪0.8‬‬
‫‪C‬‬
‫‪‬‬ ‫‪0.2‬‬

‫)‪P(P‬‬
‫‪C‬‬ ‫‪0.6‬‬
‫‪C‬‬
‫‪‬‬ ‫‪0.5‬‬

‫)‪P(E‬‬
‫‪S‬‬ ‫‪P‬‬ ‫‪0.6‬‬
‫‪P‬‬
‫‪S‬‬ ‫‪‬‬ ‫‪0.9‬‬
‫‪S‬‬
‫‪‬‬ ‫‪P‬‬ ‫‪0.1‬‬
‫‪S‬‬ ‫‪P‬‬
‫‪‬‬ ‫‪‬‬ ‫‪0.2‬‬

‫)‪P(F‬‬
‫‪14‬‬
‫شبکه های اعتقادی بیز‬

‫‪P‬‬ ‫‪0.9‬‬
‫‪P‬‬
‫‪‬‬ ‫‪0.7‬‬

‫جدول ‪ 4-2‬جداول احتماالت شرطی‬

‫توجه کنید که بر اساس جداول فوق یک وابستگی بین ‪ F‬و ‪ C‬وجود دارد اما از آنجا که یک وابستگی مستقیم نمی باشد‪ ،‬نیازی به‬
‫نگهداری اطالعات در مورد آن وجود ندارد‪.‬‬
‫جداول احتماالت شرطی‪ ،‬همه ی اطالعات مورد نیاز که جهت انجام استدالل در یک محیط خاص می باشند را فراهم می آورد‪.‬‬
‫)‪ (C‬را با استفاده از حقیقت زیر بدست آوریم‪:‬‬ ‫‪‬‬ ‫به عنوان مثال‪ ،‬می توانیم مقادیری چون ‪P‬‬

‫(‪P‬‬ ‫‪ C)=1-P(C)=1-0.2=0.8‬‬


‫می توانیم از این شبکه جهت تعیین احتماالت شرطی چون )‪ P(F|P‬نیز استفاده نمائیم‪ .‬جهت این کار در جدول نهایی مشاهده می‬
‫شود که اگر ‪ P‬درست باشد‪ ،‬آنگاه ‪ P(F)=0.9‬خواهد بود‪ .‬با این حساب ‪ P(F|P)=0.9‬می باشد‪.‬‬
‫توزیع احتمال مشترک برای این مسئله نمایش دهنده ی همه ی وضعیت های آن می باشد‪ .‬می توانیم چنین حالتی را با استفاده از‬
‫سمبلی که در مثال زیر استفاده شده است نمایش دهیم‪:‬‬

‫‪P(C,S,‬‬ ‫)‪ P,E,  F‬‬


‫این عبارت نشاندهنده ی این است که شما به کالج خواهید رفت و اینکه شما درس خواهید خواند و اینکه در امتحانتان موفق‬
‫خواهید بود اما مهمانی نخواهید داد یا سرگرمی نخواهید داشت‪ .‬این احتمال می تواند با استفاده از قانون زیر محاسبه شود‪:‬‬

‫‪n‬‬
‫) ‪P ( X 1 ,..., X n )   P ( X i | E‬‬
‫‪i 1‬‬

‫‪ E‬مدرکی است که در آن هر ‪X i‬مستقل است به عبارت دیگر در شبکه اعتقادی بیز‪ E ،‬شامل نودهایی می باشد که والدین‬
‫‪X i‬هستند‪ .‬به عنوان مثال با استفاده از شکل ‪ 2-2‬می توانیم احتمال زیر را محاسبه نمائیم‪:‬‬

‫‪P(C,S,‬‬ ‫)‪ P,E,  F)=P(C).P(S|C).P(  P|C).P(E|S^  P).P(  F|  P‬‬


‫‪=0.2 × 0.8 × 0.4 × 0.9 × 0.3‬‬
‫‪=0.01728‬‬

‫به این ترتیب برای ‪ S‬نیاز داریم ضرب آن را در )‪ P(S|C‬داشته باشیم چرا که ‪ S‬فقط وابسته به ‪ C‬می باشد و ‪ C‬در شرایطی که‬
‫)‪ ^P‬را داشته باشیم چرا که ‪ E‬وابسته به ‪P‬‬ ‫‪‬‬‫ما بررسی می کنیم درست است‪ .‬به همین ترتیب‪ ،‬برای ‪ E‬نیاز داریم تا ‪P(E|S‬‬
‫و ‪ S‬است و در این عبارت ‪ S‬درست و ‪ P‬نادرست است‪.‬‬
‫همچنین می توانیم احتماالت شرطی پیچیده تر را محاسبه نمائیم‪ .‬در واقع با توجه به ساختار شبکه ی اعتقادی‪ ،‬این یک پروسه ی‬
‫واقعا" ساده می باشد‪ .‬برای مثال‪ ،‬به احتمال شرطی زیر توجه کنید‪:‬‬

‫)‪P(E|C^S^P‬‬

‫می توانیم در واقع ‪ C‬را از این ترکیب حذف نموده و داشته باشیم‪:‬‬

‫‪P(E|E^P)=0.6‬‬

‫به همین طریق احتمال شرطی پیچیده تر باال می تواند با حذف ‪ F‬و ‪ C‬به صورت زیر در بیاید‪:‬‬

‫^‪P(E|S‬‬ ‫‪ P)=0.9‬‬


‫با این حساب‪ ،‬هر گونه محاسبه که جهت دنیای این مسئله نیاز داریم با استفاده از جداول احتماالت شرطی از شبکه ی اعتقادی‬
‫قابل وصول است‪.‬‬

‫‪15‬‬
‫شبکه های اعتقادی بیز‬

‫می توانیم تشخیصاتی را در مورد زندگی در کالج شما با تعیین احتماالت پیشین آن انجام دهیم‪ .‬به عنوان مثال‪ ،‬این اجازه را‬
‫داشته باشیم که در مورد شما بگوئیم که شما می دانید که باید در هنگام ورود در کالج سرگرم باشید و به سختی درس بخوانید‬
‫همچنین می دانید که شما در امتحانتان موفق بوده اید‪ ،‬اما شما می خواهید بدانید که مهمانی بدهید یا خیر‪.‬‬
‫پر واضح است که شما ‪ C، S، E‬و ‪ F‬را می دانید اما ‪ P‬را نمی دانید ونیاز دارید تا بیشترین مقدار مناسب برای آن پیدا کنید‪ .‬از‬
‫اینرو‪ ،‬می توانید مقادیر دو عبارت زیر را مقایسه نمائید‪.‬‬

‫)‪P(C^S^P^E^F)=P(C).P(S|C).P(P|C).P(E|S^P).P(F|P‬‬
‫‪=0.2 × 0.8 × 0.6 × 0.6 × 0.9‬‬
‫‪=0.05184‬‬
‫^‪P(C^S‬‬ ‫‪‬‬
‫(‪P^E^F)=P(C).P(S|C).P‬‬ ‫‪‬‬
‫^‪P|C).P(E|S‬‬ ‫)‪ P).P(F|  P‬‬
‫‪=0.2 × 0.8 × 0.4 × 0.9 × 0.7‬‬
‫‪=0.04032‬‬

‫با این حساب‪ ،‬با احتمال بیشتری می توان گفت که شما در دوران کالج تان مهمانی داشته اید‪.‬‬

‫‪ : 2-3‬مسئله ی وابستگی فصول کتاب‬

‫در این جا مثال ساده ای را از یک شبکه بیز غیر معمول ارائه می کنیم‪ .‬به جای اینکه هر نود بیانگر یک فرضیه با یک قسمت‬
‫اطالعات تشخیصی باشد‪ ،‬هر نود یک فصل از یک کتاب می باشد‪ .‬یالهای بین نودها وابستگی بین فصل ها را نشان می دهند‪.‬‬
‫این مثال در شکل ‪ 3-2‬نشان داده شده است‪.‬‬
‫به عنوان مثال‪ ،‬شبکه نشان می دهد که اگر شما قصد دارید فصل ‪ 8‬از کتاب را بخوانید که عنوان آن "استنتاج و اثبات در حل‬
‫مسائل" می باشد‪ ،‬خوب است که ابتدا فصل ‪ 7‬که در مورد منطق مسندها و گزاره ها می باشد را مطالعه نمائید‪.‬‬
‫جهت تطبیق این شبکه به عنوان یک شبکه ی اعتقادی استاندارد‪ ،‬می توانیم به هر نود به عنوان نمایش دهنده ی احتمال اینکه شما‬
‫فصل داده شده را خوانده اید‪ ،‬و آنکه یک وابستگی بین این فصول وجود دارد‪ ،‬نگاه کنیم‪ .‬به عنوان مثال‪ ،‬نود فصل ‪ 8‬در این‬
‫شبکه نشان از وابستگی آن به فصل ‪ 7‬دارد و به این معنی می باشد که اگر شما فصل ‪ 8‬را خوانده اید‪ ،‬به احتمال زیاد فصل ‪ 7‬را‬
‫نیز مطالعه نموده اید‪ .‬این شبکه برای شما وقتی می خواهید ترتیب خواندن فصل ها را انتخاب نمائید مفید می باشد و می توانید از‬
‫آن به عنوان چارت راهنما استفاده کنید و هنگامی که می خواهید یک فصل خاص را بخوانید‪ ،‬ببینید آیا الزم است تا فصل دیگری‬
‫را قبل از آن مطالعه نمائید‪.‬‬

‫‪.‬شکل ‪ 3-2‬نمایی از یک شبکه اعتقادی که وابستگی فصول کتاب را نشان می دهد‬

‫‪16‬‬
‫شبکه های اعتقادی بیز‬

‫طرح یک مسئله ی جامع در ‪Netica‬‬

‫این مدل سازی توسط نرم افزار ‪ NETICA‬انجام شده است‪.‬‬


‫با استفاده از نرم افزار ‪ Netica‬می توان ‪ Bayesian Belief Network‬و ‪ Influence Diagram‬ها را رسم ک رد و ج داول‬
‫احتمال را تشکیل داد‪.‬‬

‫بررسی ‪ Umbrella Decision Problem‬با ‪:Bayesian Network‬‬

‫این مساله در مورد پیش بینی وضع هوا می باشد و سوال زیر را مطرح می کند‪:‬‬

‫آیا من نیاز به بردن چتر دارم؟‬ ‫‪‬‬


‫‪‬‬ ‫? ‪Do I really want to carry an umbrella‬‬

‫این تصمیم گیری بر اساس ورودی های زیر صورت می گیرد‪:‬‬

‫بیشترین گزارش هوایی که اخیرا شنیده یا دیده شده‪.‬‬ ‫‪‬‬


‫‪‬‬ ‫‪The most recent weather report heard or saw‬‬
‫‪ ‬االن وضعیت آسمان چگونه است؟ (ابری ‪ ,‬بادی و ‪)...‬‬
‫‪‬‬ ‫؟‪What the sky looks like‬‬
‫قبل از بررسی این مسئله ابتدا شبکه ی بیز را مرور می کنیم‪:‬‬

‫فواید ‪:Bayesian Network‬‬

‫‪ .1‬توضیح اینکه چگونه یک سیستم در مورد مساله (‪ )Problem‬به یک توص یه ‪ ،‬تص میم یا ‪ action‬می رس د ‪ ،‬س اده ت ر‬
‫است‪.‬‬
‫‪ .2‬رفع عیب کردن مسائل ساده تر خواهد بود‪.‬‬
‫‪ .3‬با تحلیل دقیق ‪ ،‬فهمیدن اینکه چگونه ورودی ها بر نتایج تاثیر می گذارند ساده تر است‪.‬‬

‫‪ :Bayesian Belief Network‬یک ابزار قوی ب رای م دل س ازی دالیل و ت اثیرات اس ت‪ .‬این اب زار ش بکه ه ای فش رده از‬
‫احتماالت که احتمال روابط بین متغییر ها را از روی تاریخچه ی روابط بین متغییر ها را از روی تاریخچه ی روابط بین متغییر‬
‫ها بدست می آورد‪.‬‬
‫‪ Bayesian Belief Network‬از لحاظ گرافیکی یک نمودار با اجزاء ‪ Node‬و ‪ Edge‬است‪.‬‬

‫‪( Node‬گره)‪ :‬یک متغییر را نشان می دهد که در نمودار بصورت یک بیضی که اسم متغییر روی آن نوشته ش ده اس ت ‪ ،‬نم ایش‬
‫داده می شود‪.‬‬

‫‪( Edge‬لب ه)‪ :‬یک ‪ edge‬مش خص کنن ده یک رابط ه علت و معل ولی (‪ )casual Relationship‬بین دو گ ره اس ت‪ edge .‬در‬
‫نمودار بصورت یک خط جهت دار که جهت آن از علت به معلول است ‪ ،‬نمایش داده می شود‪.‬‬

‫بعنوان مثال اگر جهت ‪ edge‬از گره ‪ X‬به سمت گره ‪ Y‬باشد یعنی متغییر ‪ X‬تاثیر مستقیمی بر متغییر ‪ Y‬دارد‪.‬‬

‫‪X‬‬ ‫‪Y‬‬

‫چگونگی تاثیر گذاری ‪ X‬بر ‪ Y‬در جدولی به نام "جدول احتمال شرطی" تعریف می شود‪.‬‬

‫‪ Bayesian Belief Network‬ساخته شده برای ‪:Umbrella Decision Problem‬‬


‫‪17‬‬
‫شبکه های اعتقادی بیز‬

‫‪( States‬وضعیت ها)‪ :‬به مقادیری که متغییر ها می توانند داشته باشند گفته می شود‪.‬‬

‫در این مثال‪:‬‬


‫وضعیت های متغییر ‪( outlook‬دید بیرونی)‪:‬‬
‫‪( Sunny ‬آفتابی)‬
‫‪( Overcast ‬مه آلود)‬
‫‪( Rainy ‬بارانی)‬

‫وضعیت های متغییر ‪( cloud‬ابر)‪:‬‬


‫‪( Completely ‬کامال ابری)‬
‫‪( Partly ‬تقریبا ابری)‬
‫‪( No ‬ابری نیست)‬

‫وضعیت های متغییر ‪( temperature‬دما)‪:‬‬


‫‪( Hot ‬دمای زیاد)‬
‫‪( Medium ‬دمای متوسط)‬
‫‪( Low ‬دمای کم)‬
‫وضعیت های متغییر ‪( humidity‬رطوبت)‪:‬‬
‫‪( Less ‬کم)‬
‫‪( More ‬زیاد)‬

‫وضعیت های متغییر ‪( windy‬بادی)‪:‬‬


‫‪( False ‬بادی نباشد)‬
‫‪( True ‬بادی باشد)‬

‫وضعیت های ‪(weather report‬گزارش هوا)‪:‬‬


‫‪( Rain ‬بارانی)‬
‫‪( NoRain ‬بدون باران)‬

‫جدول احتمال شرطی(‪ :)CPT‬هر گره یک ‪ / Conditional Probability Table( CPT‬جدول احتمال ش رطی) ب رای خ ود‬
‫دارد‪.‬‬
‫‪18‬‬
‫شبکه های اعتقادی بیز‬

‫احتمال های شرطی بر پایه ی اطالعات دوره ای یا تجربه های گذشته در مورد آن متغییر استوار است‪.‬‬
‫بعنوان مثال اگر گره ‪ X‬دارای والد ه ای ‪ P1‬و ‪ P2‬و‪...‬و ‪ Pn‬باش د‪ .‬احتم ال متغییر ‪ X‬در وض عیت ‪ x‬از دید ریاض ی بص ورت‬
‫)‪ P(x/p1,p2,…,pn‬خواهد بود که در آن والد ‪ P1‬در وضعیت ‪ ، p1‬والد ‪ 2P‬در وضعیت ‪ 2p‬و ‪ ...‬و وال د ‪ Pn‬در وض عیت ‪pn‬‬
‫قرار دارند‪ .‬برای هر والد و هر وضعیت ممکن برای آن والد یک ردیف در ‪ CPT‬وجود خواهد داشت که احتم ال وض عیت ه ای‬
‫فرزند را بصورت درصدی بیان می کند‪.‬‬

‫‪ CPT‬برای متغییر ‪:weather report‬‬

‫این گره دارای یک والد است‪ .‬اگر دارای والد های بیش تری ب ود ب ه س مت چپ یک س تون اض افه می ک ردیم‪ .‬بعن وان مث ال اگ ر‬
‫نمودار زیر را داشته باشیم که در آن وضعیت ها بصورت زیر باشد‪.‬‬

‫‪A‬‬ ‫‪B‬‬

‫‪C‬‬

‫‪States of A:‬‬
‫‪ A1‬‬
‫‪ A2‬‬
‫‪ A3‬‬

‫‪States of B:‬‬
‫‪ B1‬‬
‫‪ B2‬‬

‫‪States of C:‬‬
‫‪ C1‬‬
‫‪ C2‬‬
‫‪ C3‬‬

‫‪ CPT‬بصورت زیر خواهد بود‪:‬‬

‫‪19‬‬
‫شبکه های اعتقادی بیز‬

‫‪Node: C‬‬

‫‪A‬‬ ‫‪B‬‬ ‫‪C1‬‬ ‫‪C2‬‬ ‫‪C3‬‬


‫‪A1‬‬ ‫‪B1‬‬ ‫‪35‬‬ ‫‪5‬‬ ‫‪60‬‬
‫‪A2‬‬ ‫‪B1‬‬ ‫‪40‬‬ ‫‪20‬‬ ‫‪40‬‬
‫‪A3‬‬ ‫‪B1‬‬ ‫‪15‬‬ ‫‪67‬‬ ‫‪18‬‬
‫‪A1‬‬ ‫‪B2‬‬ ‫‪65‬‬ ‫‪25‬‬ ‫‪10‬‬
‫‪A2‬‬ ‫‪B2‬‬ ‫‪50‬‬ ‫‪20‬‬ ‫‪30‬‬
‫‪A3‬‬ ‫‪B2‬‬ ‫‪5‬‬ ‫‪90‬‬ ‫‪5‬‬

‫گره های بدون والد هم دارای ‪ CPT‬هستند با این تفاوت که ‪ CPT‬آنها ساده تر است و احتمال انفرادی وضعیت های آن گره تکیه‬
‫دارد‪ CPT .‬برای ‪ outlook‬بصورت زیر خواهد بود‪:‬‬

‫‪ :Belief‬احتمال بدست آمده برای اینکه یک متغییر در یک وضعیت خاص باشد‪.‬‬

‫‪ :Evidence‬به اطالعاتی راجع به وضعیت جاری گفته می شود‪.‬‬


‫نمودار زیر ‪ Bayesian Network‬را به همراه ‪ belief‬ها بصورت نمودار میله ای نشان می دهد‪.‬‬

‫‪20‬‬
‫شبکه های اعتقادی بیز‬

‫‪( Decision Theory‬نظریه تصمیم گیری)‪:‬‬


‫نظریه تصمیم گیری برابر با مجموع نظریه احتمال و نظریه بهره وری می باشد‪.‬‬
‫‪Decision Theory = Probability Theory + Utility Theory‬‬

‫نظریه بهره وری میزان رضایت کاربر از سیستم را نشان می دهد‪.‬‬

‫نم ودار ‪ Bayesian belief network‬در این مث ال ‪ 6‬گ ره از متغییر ه ای ط بیعی ب ه ن ام ه ای ‪temperature ، outlook ،‬‬
‫‪ humidity ، windy ، cloud‬و ‪ weather report‬دارد‪.‬‬

‫گره دیگری از نوع گره تصمیم گیری به نام “‪ ”umbrella‬در نظر می گیریم که بردن یا نبردن چتر را نشان می دهد‪ .‬ک اربر ب ر‬
‫اساس گره های ‪ weather report‬و ‪ cloud‬این تص میم گ یری را انج ام می ده د ‪ ،‬پس باید از گ ره ه ای ‪ weather report‬و‬
‫‪ cloud‬به گره ‪ umbrella‬لبه وجود داشته باشد‪.‬‬

‫یک گره دیگر از نوع گره بهره وری به نام ‪ U‬در نظر می گیریم‪ .‬میزان بهره وری را عددی بین ‪ 0‬تا ‪ 100‬بر اساس نظرات‬
‫کاربر در نظر می گیریم‪.‬‬

‫نظرات کاربر در جمالت زیر مشخص شده است‪:‬‬


‫‪ ‬اگر باران نبارد و کاربر نیز چتری را با خود نبرد ‪ ،‬کاربر راضی است‪( .‬بهره وری=‪)100‬‬
‫‪ ‬اگر باران ببارد و کاربر چتر را با خود ببرد ‪ ،‬کاربر راضی است‪( .‬بهره وری=‪)100‬‬
‫‪ ‬اگر باران نبارد و کاربر چتر را با خود ببرد ‪ ،‬کاربر ناراضی است‪( .‬بهره وری=‪)10‬‬
‫‪ ‬اگر باران ببارد و کاربر چتر را با خود نبرد ‪ ،‬کاربر بسیار ناراحت است‪( .‬بهره وری=‪)0‬‬

‫نظرات کاربر (بهره وری) براساس متغییر های ‪ weather report‬و ‪ umbrella‬صورت می گیرد ‪ ،‬پس از این هر کدام از این‬
‫دو گره باید یک لبه به گره ‪ U‬داشته باشیم‪.‬‬

‫‪( Influence Diagram‬نمودار تاثیر)‪:‬‬


‫این نمودار عالوه بر گره های متغییرهای محیطی دارای گره تصمیم گیری (که با مستطیل نمایش داده می شود) و گره بهره وری‬
‫(که با الماس نشان داده می شود) می باشد‪.‬‬
‫به این نمودار ‪( Decision Network‬شبکه تصمیم گیری) نیز می گویند‪.‬‬

‫نمودار زیر نمودار تاثیر ‪ Umbrella Decision Problem‬است‪.‬‬

‫‪ CPT‬برای متغییر های این مثال‪:‬‬

‫‪21‬‬
‫شبکه های اعتقادی بیز‬

‫بر اساس نظرات کاربر ‪ CPT‬برای گره ‪ U‬را ایجاد می کنیم‪:‬‬

‫‪22‬‬
‫شبکه های اعتقادی بیز‬

‫در این صورت نمودار بهره وری همراه با ‪( belief‬احتمال یک وضعیت در هر متغییر) بصورت زیر ساخته می شود‪:‬‬

‫‪ CPT‬برای گره ‪ umbrella‬را نیز بصورت زیر ایجاد می کنیم‪:‬‬

‫‪23‬‬
‫شبکه های اعتقادی بیز‬

:‫منابع‬

 “Netica – Application for Belief Networks and Influence Diagrams” by Norsys software
corp.

 “A Brief introduction to graphical models and Bayesian Networks” by Kevin


Murphy,1998

 “Probabilistic Reasoning in expert systems” by Richard E. Neapolitan

 “Beyond Rules: Getting more out of data with Belief Networks” by Charles River
Analytics Inc.

 Weather Report Information – www.ussartf.org/predicting-weather.htm

 Artificial_Intelligence” by Ben Coppin

‫مشهد‬/‫ دانشگاه امام رضا‬1380 ,‫آمار واحتمال مقدماتی” دکتر جواد بهبودیان‬ 

24

You might also like