You are on page 1of 106

‫ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ‬

‫‪٢‬‬ ‫ﻓﻬﺮﺳﺖ ﻣﻄﺎﻟﺐ‬

‫‪۴‬‬ ‫اﺣﺘﻤﺎل‬ ‫‪١‬‬


‫‪٩‬‬ ‫ﻣﺤﺎﺳﺒﻪ اﺣﺘﻤﺎﻻت ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.١‬‬

‫‪١۵‬‬ ‫‪ ٢‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ و اﻧﻮاع آن‬


‫‪١٧‬‬ ‫اﻧﻮاع ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.٢‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪١٨ . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.١.٢‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ‪٢٢ . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.١.٢‬‬
‫‪٢۴‬‬ ‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . (X, Y‬‬ ‫‪٢.٢‬‬
‫ﻣﻔﻬﻮم و ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪٢۴ . . . . . . . . . . . . . . (X, Y‬‬ ‫‪١.٢.٢‬‬
‫ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻻت ﺣﺎﺷﯿﻪ ای )ﮐﻨﺎری( ‪٢٩ . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.٢.٢‬‬
‫ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻻت ﺷﺮﻃﯽ ‪٣١ . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٣.٢.٢‬‬
‫ﻣﺘﻐﯿﺮﻫﺎی ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ ‪٣۴ . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪۴.٢.٢‬‬
‫‪٣۴‬‬ ‫ﺗﻮزﯾﻊ ﺗﺎﺑﻌﯽ از ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪. . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٣.٢‬‬

‫‪٣۶‬‬ ‫‪ ٣‬اﻣﯿﺪ رﯾﺎﺿﯽ‬


‫‪٣٩‬‬ ‫اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻌﯽ از ﯾﮏ ﯾﺎ ﭼﻨﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪. . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.٣‬‬
‫‪۴٣‬‬ ‫اﻣﯿﺪ رﯾﺎﺿﯽ ﺷﺮﻃﯽ ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.٣‬‬
‫‪۴۵‬‬ ‫ﺧﻮاص اﻣﯿﺪ رﯾﺎﺿﯽ ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٣.٣‬‬
‫‪۴٨‬‬ ‫وارﯾﺎﻧﺲ و ﺧﻮاص آن ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪۴.٣‬‬
‫ﺧﻮاص وارﯾﺎﻧﺲ ‪۴٩ . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۴.٣‬‬
‫وارﯾﺎﻧﺲ ﺷﺮﻃﯽ ‪۵١ . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.۴.٣‬‬
‫‪۵١‬‬ ‫ﮐﻮارﯾﺎﻧﺲ و ﺧﻮاص آن ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪۵.٣‬‬

‫‪٢‬‬
‫ﺧﻮاص ﮐﻮارﯾﺎﻧﺲ ‪۵٣ . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۵.٣‬‬
‫‪۵۴‬‬ ‫ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ و ﺧﻮاص آن ‪. . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪۶.٣‬‬
‫ﺧﻮاص ﺿﺮﯾﺐ ﻫﻤﺒﺴﺘﮕﯽ ‪۵۶ . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۶.٣‬‬

‫‪۵٨‬‬ ‫ﺑﺮﺧﯽ از ﺗﻮزﯾﻊ ﻫﺎی اﺣﺘﻤﺎل‬ ‫‪۴‬‬


‫‪۵٨‬‬ ‫ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﮔﺴﺴﺘﻪ ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۴‬‬
‫ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ‪۵٨ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.١.۴‬‬
‫ﺗﻮزﯾﻊ دوﺟﻤﻠﻪ ای ‪۶٠ . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.١.۴‬‬
‫‪۶۴‬‬ ‫ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﭘﯿﻮﺳﺘﻪ ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.۴‬‬
‫ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ‪۶۴ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.٢.۴‬‬
‫‪۶٧‬‬ ‫ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰی ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٣.۴‬‬

‫‪٧٠‬‬ ‫آﻣﺎر اﺳﺘﻨﺒﺎﻃﯽ‬ ‫‪۵‬‬


‫‪٧٣‬‬ ‫ﺑﺮآورد ﻧﻘﻄﻪ ای ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۵‬‬
‫‪٧٧‬‬ ‫ﺑﺮآورد ﻧﻘﻄﻪ ای ﭘﺎراﻣﺘﺮ دو ﺟﺎﻣﻌﻪ ‪. . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.۵‬‬
‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﻧﺮﻣﺎل ‪٧٧ . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.٢.۵‬‬
‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﺑﺮﻧﻮﻟﯽ ‪٨٠ . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.٢.۵‬‬
‫‪٨١‬‬ ‫ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٣.۵‬‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪ θ = µ‬وﻗﺘﯽ ‪ σ ۲‬ﻣﻌﻠﻮم اﺳﺖ‪٨٣ . . . . . . . . . . . . . .‬‬ ‫‪١.٣.۵‬‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪ θ = µ‬وﻗﺘﯽ ‪ σ ۲‬ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪٨۵ . . . . . . . . . . . . . .‬‬ ‫‪٢.٣.۵‬‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪٨٧ . . . . . . . . . . . . . . . . . . . . . . . .θ = σ ۲‬‬ ‫‪٣.٣.۵‬‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ در ﯾﮏ ﺟﺎﻣﻌﻪ ‪٨٩ . . . . . . . . . . . . .‬‬ ‫‪۴.٣.۵‬‬
‫‪٩١‬‬ ‫ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ﺑﺮای ﭘﺎراﻣﺘﺮﻫﺎﯾﯽ از دو ﺟﺎﻣﻌﻪ ‪. . . . . . . . . . . . . . . . . . .‬‬ ‫‪۴.۵‬‬
‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﻧﺮﻣﺎل ‪٩١ . . . . . . . . . . . . . . . . . . .‬‬ ‫‪١.۴.۵‬‬
‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﺑﺮﻧﻮﻟﯽ ‪٩۵ . . . . . . . . . . . . . . . . . . .‬‬ ‫‪٢.۴.۵‬‬
‫‪٩٨‬‬ ‫آزﻣﻮن ﻓﺮض ﻫﺎی آﻣﺎری ‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬ ‫‪۵.۵‬‬

‫‪٣‬‬
‫ﻓﺼ ﻞ ‪١‬‬

‫اﺣﺘﻤﺎل‬

‫ﺷﺎﻧﺲ و ﻋﺪم ﻗﻄﻌﯿﺖ ﺗﺎرﯾﺨﭽﻪ ای ﺑﻪ اﻧﺪازه ﺗﻤﺪن ﺑﺸﺮﯾﺖ دارد‪ .‬ﺗﺌﻮری اﺣﺘﻤﺎل در ﻗﺮن ‪ ١٧‬ﺗﻮﺳﻂ ﭘﺎﺳﮑﺎل و‬
‫ﻓﺮﻣﺎ آﻏﺎز ﺷﺪ ﮐﻪ ﺳﻌﯽ در ﺣﻞ و ﺑﺪﺳﺖ آوردن اﺣﺘﻤﺎل دﻗﯿﻖ در ﺑﺮﺧﯽ ﻣﺴﺎﺋﻞ ﻗﻤﺎرﺑﺎزی ﺑﻪ ﻃﻮر رﯾﺎﺿﯽ داﺷﺘﻨﺪ‪.‬‬
‫ﺑﻪ اﻋﺘﻘﺎد ﺑﺴﯿﺎری‪ ،‬ﻣﻬﻢ ﺗﺮﯾﻦ اﺑﺪاع ﭘﺎﺳﮑﺎل در ﻋﻠﻢ رﯾﺎﺿﯽ ﺗﺌﻮری اﺣﺘﻤﺎل ﺑﻮد‪ .‬از دﯾﺪﮔﺎه ﭘﺎﺳﮑﺎل‪” :‬ﻓﻮق‬
‫اﻟﻌﺎده اﺳﺖ ﮐﻪ اﯾﻦ ﻋﻠﻢ در آﻏﺎز در ﺑﺮرﺳﯽ ﺑﺎزی ھﺎی ﺷﺎﻧﺴﯽ اﺑﺪاع ﺷﺪه ﺑﻮد وﻟﯽ اﻣﺮوزه ﺑﺎﯾﺪ ﺑﻪ ﻋﻨﻮان ﻣﻬﻤﺘﺮﯾﻦ‬
‫داﻧﺶ ﺑﺸﺮی در آﯾﺪ‪”.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .١-١‬ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ﻋﻤﻠﯽ ﺑﻮده ﮐﻪ دارای ﺧﺼﻮﺻﯿﺎت زﯾﺮ اﺳﺖ‪:‬‬

‫‪ .١‬ﻗﺎﺑﻠﯿﺖ ﺗﮑﺮار داﺷﺘﻪ ﺑﺎﺷﺪ‪،‬‬

‫‪ .٢‬در ﺷﺮاﯾﻂ ﯾﮑﺴﺎن ﻧﺘﺎﯾﺞ ﻣﺘﻔﺎوت داﺷﺘﻪ‪ ،‬و‬

‫‪ .٣‬ھﻤﻪ ﻧﺘﺎﯾﺞ ﻗﺒﻞ از اﻧﺠﺎم آزﻣﺎﯾﺶ ﻗﺎﺑﻞ ﭘﯿﺶ ﺑﯿﻨﯽ ﺑﺎﺷﺪ‪.‬‬

‫ﺑﺮای ﻣﺜﺎل‪ ،‬آزﻣﺎﯾﺶ اﻧﺪازه ﮔﯿﺮی ﮐﺸﺶ ﻧﺦ‪ ،‬ﭘﺮﺗﺎب ﺗﺎس‪ ،‬اﻧﺪازه ﮔﯿﺮی ﻃﻮل ﻋﻤﺮ ﺑﺎﺗﺮی ھﺎی ﺗﻮﻟﯿﺪ ﺷﺪه در‬
‫ﯾﮏ ﮐﺎرﺧﺎﻧﻪ‪ ،‬اﻧﺪازه ﮔﯿﺮی ﺣﺮارت ﺑﺪن ﯾﮏ ﺑﯿﻤﺎر در ﻃﻮل ﺷﺒﺎﻧﻪ روز‪ ،‬ھﺮ ﮐﺪام ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ اﺳﺖ‪.‬‬
‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .٢-١‬ﻣ ﺠ ﻤ ﻮﻋ ﻪ ﺗ ﻤ ﺎم ﻧ ﺘ ﺎﯾ ﺞ ﻣ ﻤ ﮑ ﻦ در ﯾ ﮏ آزﻣ ﺎﯾ ﺶ ﺗ ﺼ ﺎدﻓ ﯽ را ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ ﮔ ﻮﯾ ﻨ ﺪ و آن را ﺑ ﺎ ﻧ ﻤ ﺎد ‪S‬‬
‫ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‪ .‬ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﺑﻪ دو دﺳﺘﻪ ﺗﻘﺴﯿﻢ ﻣﯽ ﺷﻮد‪:‬‬

‫• ﮔﺴﺴﺘﻪ‪:‬‬

‫– ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ ﻣ ﺘ ﻨ ﺎھ ﯽ ﯾ ﮏ ﻣ ﺠ ﻤ ﻮﻋ ﻪ ﻣ ﺘ ﻨ ﺎھ ﯽ و ﺷ ﻤ ﺎرش ﭘ ﺬﯾ ﺮ ﻣ ﺜ ﻞ ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ آزﻣ ﺎﯾ ﺶ ﭘ ﺮﺗ ﺎب‬


‫ﺗﺎس ﯾﺎ ﺳﮑﻪ ﮐﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﺑﻪ ﺻﻮرت }‪ S = {۱, ۲, ۳, ۴, ۵, ۶‬و } ‪ S = {H, T‬اﺳﺖ‪.‬‬
‫– ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻧﺎﻣﺘﻨﺎھﯽ ﯾﮏ ﻣﺠﻤﻮﻋﻪ ﻧﺎﻣﺘﻨﺎھﯽ و ﺷﻤﺎرش ﭘﺬﯾﺮ اﺳﺖ ﻣﺜﻞ آزﻣﺎﯾﺶ ﭘﺮﺗﺎب ﺳﮑﻪ ﺗﺎ‬
‫دﯾﺪن اوﻟﯿﻦ ﺷﯿﺮ ﮐﻪ ﺑﻪ ﺻﻮرت }‪ S = {H, T H, T T H, T T T H, . . .‬اﺳﺖ‪.‬‬

‫• ﭘﯿﻮﺳﺘﻪ‪ :‬اﻋﻀﺎی اﯾﻦ ﻧﻮع ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﺑﻪ ﺻﻮرت ﯾﮏ ﻓﺎﺻﻠﻪ از اﻋﺪاد ﺣﻘﯿﻘﯽ ﯾﺎ ﯾﮏ ﺳﻄﺢ در ﻓﻀﺎی‬
‫دو ﺑ ﻌ ﺪی ﯾ ﺎ ‪ ...‬اﺳ ﺖ‪ .‬ﻣ ﺜ ﻼ آزﻣ ﺎﯾ ﺶ اﻧ ﺪازه ﮔ ﯿ ﺮی ﺣ ﺮارت ﺑ ﺪن ﯾ ﮏ ﺑ ﯿ ﻤ ﺎر در ﻃ ﻮل ‪ ٢۴‬ﺳ ﺎﻋ ﺖ‪ ،‬ﻓ ﻀ ﺎی‬
‫ﻧﻤﻮﻧﻪ ای ﺑﻪ ﺻﻮرت ]‪ [۳۵, ۴۲‬دارد‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٣-١‬ھﺮ زﯾﺮﻣﺠﻤﻮﻋﻪ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ را ﯾﮏ ﭘﯿﺸﺎﻣﺪ ﮔﻮﯾﻨﺪ‪ .‬ﻣﺜﻼ ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﺷﯿﺮ در ﭘﺮﺗﺎب ﺳﮑﻪ و‬
‫ﯾﺎ ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﻋﺪد زوج در ﭘﺮﺗﺎب ﯾﮏ ﺗﺎس ﮐﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ﺑﻪ ﺻﻮرت }‪ A = {H‬و }‪ B = {۲, ۴, ۶‬اﺳﺖ‪.‬‬

‫اﻧﻮاع ﭘﯿﺸﺎﻣﺪ‪:‬‬

‫• ﺳﺎده‪ :‬ﯾﮏ ﭘﯿﺸﺎﻣﺪ ﺗﮏ ﻋﻀﻮی اﺳﺖ‪.‬‬

‫• ﻣﺮﮐﺐ‪ :‬ﭘﯿﺸﺎﻣﺪی ﺑﺎ ﺗﻌﺪاد اﻋﻀﺎی ﺑﯿﺸﺘﺮ از ﯾﮏ اﺳﺖ‪.‬‬

‫• ﻣﺤﺎل ﯾﺎ ﺗﻬﯽ‪ :‬ﭘﯿﺸﺎﻣﺪ ﺑﺪون ﻋﻀﻮ اﺳﺖ ﮐﻪ آن را ﺑﻪ ﺻﻮرت }{ = ‪ ϕ‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‪.‬‬

‫• ﺣﺘﻤﯽ‪ :‬ﭘﯿﺸﺎﻣﺪی ﺑﺮاﺑﺮ ﺑﺎ ﻓﻀﺎی ﻧﻤﻮﻧﻪ اﺳﺖ‪.‬‬

‫در رﯾ ﺎﺿ ﯿ ﺎت ﻣ ﯽ ﺗ ﻮاﻧ ﯿ ﻢ ﻣ ﺒ ﺤ ﺜ ﯽ را ﺑ ﺎ ﭼ ﻨ ﺪ ﻗ ﺎﻧ ﻮن ﺷ ﺮوع ﮐ ﻨ ﯿ ﻢ و ﺳ ﭙ ﺲ از اﯾ ﻦ ﻗ ﻮاﻧ ﯿ ﻦ‪ ،‬ﻗ ﻮاﻧ ﯿ ﻦ دﯾ ﮕ ﺮی ﺑ ﻪ وﺟ ﻮد‬


‫آورﯾ ﻢ‪ .‬ﻣ ﻌ ﻤ ﻮﻻ اﯾ ﻦ ﻗ ﻮاﻧ ﯿ ﻦ اوﻟ ﯿ ﻪ از ﻧ ﻈ ﺮ رﯾ ﺎﺿ ﯽ ﺑ ﺪﯾ ﻬ ﯽ ھ ﺴ ﺘ ﻨ ﺪ‪ .‬ﻧ ﻈ ﺮﯾ ﻪ اﺣ ﺘ ﻤ ﺎﻻت ﻧ ﯿ ﺰ ﭼ ﻨ ﯿ ﻦ روﻧ ﺪی را دﻧ ﺒ ﺎل‬
‫ﻣﯽ ﮐﻨﺪ و ﺑﻪ ﻗﻮاﻧﯿﻦ اوﻟﯿﻪ آن‪ ،‬اﺻﻮل اﺣﺘﻤﺎل ﮔﻮﯾﻨﺪ‪.‬‬
‫ﻧ ﻈ ﺮﯾ ﻪ اﺣ ﺘ ﻤ ﺎل‪ ،‬ﻣ ﻄ ﺎﻟ ﻌ ﻪ روﯾ ﺪادھ ﺎی اﺣ ﺘ ﻤ ﺎﻟ ﯽ از دﯾ ﺪﮔ ﺎه رﯾ ﺎﺿ ﯽ اﺳ ﺖ‪ .‬ﺑ ﻪ ﻋ ﺒ ﺎرت دﯾ ﮕ ﺮ‪ ،‬ﻧ ﻈ ﺮﯾ ﻪ اﺣ ﺘ ﻤ ﺎل‬
‫ﺷﺎﺧﻪ ای از رﯾﺎﺿﯽ اﺳﺖ ﮐﻪ ﺑﺎ ﺗﺤﻠﯿﻞ روﯾﺪادھﺎی ﺗﺼﺎدﻓﯽ ﺳﺮوﮐﺎر دارد‪.‬‬

‫‪۵‬‬
‫ﮐﻮﻟﻤﻮﮔﺮوف در ﺳﺎل ‪ ١٩٩٣‬ﺗﻌﺎرﯾﻔﯽ اراﺋﻪ ﮐﺮد ﮐﻪ ﭘﺲ از ﺳﺎل ھﺎ ﺳﺒﺐ ﻣﻄﺮح ﺷﺪن اﺻﻮل ﺳﻪ ﮔﺎﻧﻪ اﺣﺘﻤﺎل‬
‫ﺷﺪ‪ .‬ﻃﺒﻖ اﯾﻦ اﺻﻮل ﺑﻪ ھﺮ ﭘﯿﺸﺎﻣﺪ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﻣﺜﻞ ‪ ،A‬ﯾﮏ ﻋﺪد )‪ P(A‬ﻧﺴﺒﺖ داده ﻣﯽ ﺷﻮد ﺑﻪ ﻃﻮری ﮐﻪ‬
‫در اﺻﻮل ‪ ٣‬ﮔﺎﻧﻪ زﯾﺮ ﺻﺪق ﮐﻨﺪ‪ .‬درواﻗﻊ دارﯾﻢ ‪ P : S −→ R‬ﺑﻪ ﻃﻮری ﮐﻪ‬
‫اﺻﻞ ‪P(S) = ۱ :١‬‬

‫اﺻﻞ ‪ :٢‬ﺑﺮای ھﺮ ﭘﯿﺸﺎﻣﺪ ‪ A‬در ﻓﻀﺎی ﻧﻤﻮﻧﻪ ‪ S‬دارﯾﻢ‪P(A) ≥ ۰ :‬‬

‫اﺻﻞ ‪ :٣‬اﮔﺮ ‪ A۱ , A۲ , A۳ , . . .‬ﭘﯿﺸﺎﻣﺪھﺎی دو ﺑﻪ دو ﻧﺎﺳﺎزﮔﺎر ﺑﺎﺷﻨﺪ )ﯾﻌﻨﯽ ﺑﻪ ازای ھﺮ ‪(Ai ∩ Aj = ϕ ،i ̸= j‬‬


‫آن ﮔﺎه‬
‫‪P(A۱ ∪ A۲ ∪ A۳ ∪ . . .) = P(A۱ ) + P(A۲ ) + P(A۳ ) + . . .‬‬

‫ﺑ ﺎ اﺳ ﺘ ﻔ ﺎده از ‪ ٣‬اﺻ ﻞ اﺣ ﺘ ﻤ ﺎل ﻣ ﯽ ﺗ ﻮان ﻧ ﺘ ﺎﯾ ﺞ زﯾ ﺮ ﮐ ﻪ ﺑ ﺮای ﻣ ﺤ ﺎﺳ ﺒ ﻪ اﺣ ﺘ ﻤ ﺎﻻت ﻣ ﻔ ﯿ ﺪ‬


‫ھﺴﺘﻨﺪ را ﺑﻪ دﺳﺖ آورد‪.‬‬

‫ﻧﺘﯿﺠﻪ ‪P(ϕ) = ۰ :١‬‬

‫اﺛﺒﺎت‪ .‬ﻓﺮض ﮐﻨﯿﺪ ‪ A۱ = S‬و ‪ .A۲ , A۳ , . . . = ϕ‬ﭼﻮن ‪Ai‬ھﺎ دو ﺑﻪ دو ﻧﺎﺳﺎزﮔﺎر ھﺴﺘﻨﺪ‪ ،‬ﻃﺒﻖ اﺻﻞ ‪ ٣‬دارﯾﻢ‬
‫‪P(A۱ ∪ A۲ ∪ A۳ ∪ . . .) = P(A۱ ) + P(A۲ ) + P(A۳ ) + . . .‬‬

‫و از اﺻﻞ ‪ ١‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬


‫‪۱ = ۱ + P(ϕ) + P(ϕ) + P(ϕ) + . . .‬‬ ‫⇒=‬ ‫‪P(ϕ) = ۰‬‬

‫ﻧﺘﯿﺠﻪ ‪ :٢‬اﮔﺮ ‪ B۱ , B۲ , . . . Bn‬ﭘﯿﺸﺎﻣﺪھﺎی دو ﺑﻪ دو ﻧﺎﺳﺎزﮔﺎر ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫) ‪P(B۱ ∪ B۲ ∪ . . . Bn ) = P(B۱ ) + P(B۲ ) + . . . + P(Bn‬‬

‫اﺛﺒﺎت‪ .‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ A۱ = B۱ , A۲ = B۲ , . . . , An = Bn‬و ‪ .An+۱ = An+۲ = . . . = ϕ‬ﻃ ﺒ ﻖ اﺻ ﻞ ‪ ٣‬و‬


‫ﺑﺎ اﺳﺘﻔﺎده از ﻧﺘﯿﺠﻪ ‪ ١‬دارﯾﻢ‬

‫‪P(A۱ ∪ A۲ ∪ A۳ ∪ . . .) = P(A۱ ) + P(A۲ ) + P(A۳ ) + . . .‬‬


‫∑‬
‫∞‬
‫→‬
‫‪−‬‬ ‫‪P(B۱ ∪ B۲ ∪ . . . Bn ) = P(B۱ ) + P(B۲ ) + . . . + P(Bn ) +‬‬ ‫)‪P(ϕ‬‬
‫‪i=n+۱‬‬

‫→‪−−−−−‬‬ ‫) ‪P(B۱ ∪ B۲ ∪ . . . Bn ) = P(B۱ ) + P(B۲ ) + . . . + P(Bn‬‬


‫‪P(ϕ) = ۰‬‬

‫‪۶‬‬
‫ﻧﺘﯿﺠﻪ ‪ :٣‬اﮔﺮ ‪ A‬و ‪ B‬دو ﭘﯿﺸﺎﻣﺪ ﻧﺎﺳﺎزﮔﺎر ﺑﺎﺷﻨﺪ آﻧﮕﺎه )‪.P(A ∪ B) = P(A) + P(B‬‬

‫ﻧﺘﯿﺠﻪ ‪ :۴‬اﮔﺮ ‪ A‬ﯾﮏ ﭘﯿﺸﺎﻣﺪ و ‪ A′‬ﻣﺘﻤﻢ آن ﺑﺎﺷﺪ آﻧﮕﺎه )‪.P(A′ ) = ۱ − P(A‬‬

‫اﺛﺒﺎت‪ .‬ﭼﻮن ‪ A ∩ A′ = ϕ‬ﭘﺲ ﻃﺒﻖ ﻧﺘﯿﺠﻪ ‪ ٣‬دارﯾﻢ ) ‪ .P(A ∪ A′ ) = P(A) + P(A′‬از ﻃﺮﻓﯽ ‪A ∪ A′ = S‬‬
‫ﭘﺲ )‪.P(A′ ) = ۱ − P(A‬‬

‫ﻧﺘﯿﺠﻪ ‪ :۵‬اﮔﺮ ‪A‬و ‪ B‬دو ﭘﯿﺸﺎﻣﺪ دﻟﺨﻮاه ﺑﺎﺷﻨﺪ آن ﮔﺎه )‪.P(B − A) = P(B) − P(A ∩ B‬‬

‫اﺛﺒﺎت‪ .‬ﺑ ﺮای ھ ﺮ دو ﭘ ﯿ ﺸ ﺎﻣ ﺪ دﻟ ﺨ ﻮاه ‪A‬و ‪ B‬دارﯾ ﻢ ) ‪ .B = (B ∩ A) ∪ (B ∩ A′‬ﭘ ﺲ ﻃ ﺒ ﻖ ﻧ ﺘ ﺎﯾ ﺞ ﻗ ﺒ ﻞ ﺑ ﺪﺳ ﺖ‬


‫ﻣﯽ آورﯾﻢ‬

‫) ‪P(B) = P(B ∩ A) + P(B ∩ A′‬‬

‫⇒=‬ ‫)‪P(B) = P(B ∩ A) + P(B − A‬‬

‫⇒=‬ ‫)‪P(B − A) = P(B) − P(B ∩ A‬‬

‫ﻧﺘﯿﺠﻪ ‪ :۶‬اﮔﺮ ‪ A ⊆ B‬آن ﮔﺎه‬

‫‪P(B − A) = P(B) − P(A) .i‬‬

‫‪P(A) ≤ P(B) .ii‬‬

‫‪ .i‬ﭼ ﻮن ﭘ ﯿ ﺸ ﺎﻣ ﺪ ‪ A‬زﯾ ﺮﻣ ﺠ ﻤ ﻮﻋ ﻪ ای از ﭘ ﯿ ﺸ ﺎﻣ ﺪ ‪ B‬اﺳ ﺖ ﭘ ﺲ )‪ P(A ∩ B) = P(A‬و ﺑ ﻨ ﺎﺑ ﺮاﯾ ﻦ از‬ ‫اﺛﺒﺎت‪.‬‬


‫ﻧﺘﯿﺠﻪ ‪ ۵‬دارﯾﻢ )‪.P(B − A) = P(B) − P(A‬‬

‫‪ .ii‬ﻃ ﺒ ﻖ ﻗ ﺴ ﻤ ﺖ ‪ i‬دارﯾ ﻢ )‪ .P(A) + P(B − A) = P(B‬ﭘ ﺲ ﻃ ﺒ ﻖ اﺻ ﻞ ‪ ٢‬ﺑ ﻪ دﺳ ﺖ ﻣ ﯽ آورﯾ ﻢ‬


‫)‪.P(A) ≤ P(B‬‬

‫ﻧﺘﯿﺠﻪ ‪ :٧‬ﺑﺮای ھﺮ ﭘﯿﺸﺎﻣﺪ ‪ A‬از ﻓﻀﺎی ﻧﻤﻮﻧﻪ ‪ S‬دارﯾﻢ ‪.۰ ≤ P(A) ≤ ۱‬‬

‫اﺛﺒﺎت‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ ‪ ،ϕ ⊆ A ⊆ S‬ﺑﺎ اﺳﺘﻔﺎده از ﻧﺘﯿﺠﻪ ‪ ۶‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ ‪.۰ ≤ P(A) ≤ ۱‬‬

‫‪٧‬‬
‫ﻧﺘﯿﺠﻪ ‪ :٨‬اﮔﺮ ‪ A‬و ‪ B‬دو ﭘﯿﺸﺎﻣﺪ دﻟﺨﻮاه ﺑﺎﺷﻨﺪ آن ﮔﺎه‬

‫)‪P(A ∪ B) = P(A) + P(B) − P(A ∩ B‬‬

‫اﺛﺒﺎت‪ .‬ﻣﯽ داﻧﯿﻢ ﮐﻪ ھﺮ دو ﭘﯿﺸﺎﻣﺪ دﻟﺨﻮاه ‪A‬و ‪ B‬دارﯾﻢ ) ‪ .B = (B ∩ A) ∪ (B ∩ A′‬ﭘﺲ ﻃﺒﻖ اﺻﻞ ‪ ٣‬دارﯾﻢ‬

‫)‪P(B) = P(A ∩ B) + P(A′ ∩ B‬‬

‫⇒=‬ ‫)‪P(A′ ∩ B) = P(B) − P(A ∩ B‬‬

‫از ﻃﺮﻓﯽ ﭼﻮن )‪ ،A ∪ B = A ∪ (A′ ∩ B‬دارﯾﻢ )‪ P(A′ ∩ B) = P(A ∪ B) − P(A‬و راﺑﻄﻪ ﺑﺎﻻ ﺑﻪ ﺻﻮرت‬
‫زﯾﺮ ﺳﺎده ﻣﯽ ﺷﻮد‬
‫)‪P(A ∪ B) = P(A) + P(B) − P(A ∩ B‬‬

‫‪٨‬‬
‫ﺷﮑﻞ ‪ :١-١‬اﻓﺮاز ﯾﮏ ﻓﻀﺎی ﻧﻤﻮﻧﻪ ‪S‬‬

‫‪ ١.١‬ﻣﺤﺎﺳﺒﻪ اﺣﺘﻤﺎﻻت‬
‫اﺣﺘﻤﺎل وﻗﻮع ﯾﮏ ﭘﯿﺸﺎﻣﺪ ﺑﻪ ﻣﻌﻨﺎی ﺷﺎﻧﺲ وﻗﻮع آن ﭘﯿﺸﺎﻣﺪ در اﻧﺠﺎم ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ اﺳﺖ‪.‬‬
‫اﮔﺮ اﻓﺮاز ﻓﻀﺎی ﻧﻤﻮﻧﻪ دﻟﺨﻮاه ‪ S‬را ﺑﻪ ﺻﻮرت ﺷﮑﻞ ‪ ١.١‬درﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ و ) ‪ Pi = P(Ei‬ﻃﺒﻖ ﻧﺘﯿﺠﻪ ‪ ٢‬دارﯾﻢ‬
‫(‬ ‫)‬
‫∪‬
‫‪n‬‬ ‫∑‬
‫‪n‬‬
‫‪P(S) = P‬‬ ‫‪Ei‬‬ ‫=‬ ‫‪Pi‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬

‫= ‪ .Pi‬ﺣ ﺎل اﮔ ﺮ ‪A‬‬ ‫‪۱‬‬


‫‪n‬‬
‫اﮔ ﺮ ﻓ ﺮض ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ ﺑ ﺮای ھ ﺮ ‪ Pi = P ،i = ۱, . . . , n‬آﻧ ﮕ ﺎه ﻃ ﺒ ﻖ راﺑ ﻄ ﻪ ﺑ ﺎﻻ دارﯾ ﻢ‬
‫ﭘﯿﺸﺎﻣﺪی از ‪ S‬ﺑﺎﺷﺪ ﮐﻪ } ‪ A = {E۱ , E۲ , . . . , Ek‬آن ﮔﺎه‬
‫‪k‬‬ ‫)‪n(A‬‬
‫= ) ‪P(A) = P(E۱ ) + P(E۲ ) + . . . + P(Ek‬‬ ‫=‬
‫‪n‬‬ ‫)‪n(S‬‬

‫ﮐﻪ ﯾﮏ ﻣﺪل اﺣﺘﻤﺎل ﯾﮑﻨﻮاﺧﺖ اﺳﺖ‪.‬‬


‫ﭘ ﺲ ﺑ ﺮای ﻣ ﺤ ﺎﺳ ﺒ ﻪ اﺣ ﺘ ﻤ ﺎل وﻗ ﻮع ﯾ ﮏ ﭘ ﯿ ﺸ ﺎﻣ ﺪ ﻧ ﯿ ﺎز ﺑ ﻪ ﻣ ﺤ ﺎﺳ ﺒ ﻪ ﺗ ﻌ ﺪاد اﻋ ﻀ ﺎی آن و ﺗ ﻌ ﺪاد اﻋ ﻀ ﺎی ﻓ ﻀ ﺎی‬
‫ﻧﻤﻮﻧﻪ دارﯾﻢ‪ .‬اﻏﻠﺐ ﺷﻤﺎرش اﻋﻀﺎی ﯾﮏ ﻣﺠﻤﻮﻋﻪ دﺷﻮار اﺳﺖ و ﻧﯿﺎز ﺑﻪ ﺑﻌﻀﯽ اﺻﻮل و ﻗﻮاﻋﺪ دارد‪.‬‬
‫اﺻﻞ ﺿﺮب‪ :‬ﻓﺮض ﮐﻨﯿﺪ ﯾﮏ ﮐﺎر را ﺑﺘﻮان ﺑﺎ دو ﻋﻤﻞ ﭘﯿﺎﭘﯽ ‪ A‬و ‪ B‬اﻧﺠﺎم داد‪ .‬اﮔﺮ ﻋﻤﻞ ‪ A‬ﺑﻪ ‪ a‬ﻃﺮﯾﻖ و‬
‫ﻋﻤﻞ ‪ B‬ﺑﻪ ‪ b‬ﻃﺮﯾﻖ اﻧﺠﺎم ﭘﺬﯾﺮﻧﺪ آﻧﮕﺎه اﯾﻦ ﮐﺎر را ﻣﯽ ﺗﻮان ﺑﻪ ‪ ab‬ﻃﺮﯾﻖ اﻧﺠﺎم داد‪ .‬ﻣﺜﻼ ﺑﺮای ﻧﻮﺷﺘﻦ اﻋﺪاد دو‬
‫رﻗﻤﯽ ﻣﺘﻔﺎوت ﺑﺎ اﺳﺘﻔﺎده از ارﻗﺎم ‪ ۱, ۲, ۳, ۴‬دو ﻋﻤﻞ زﯾﺮ را ﺑﺎﯾﺪ ﺑﻪ ﺻﻮرت ﭘﯿﺎﭘﯽ اﻧﺠﺎم دھﯿﻢ‪:‬‬
‫اﻧﺘﺨﺎب رﻗﻢ دھﮕﺎن‪ :‬ﻋﻤﻞ ‪A‬‬
‫اﻧﺘﺨﺎب ﻋﺪد ﯾﮑﺎن‪ :‬ﻋﻤﻞ ‪B‬‬
‫اﮔ ﺮ ﺗ ﮑ ﺮار در ﻋ ﺪد ﺳ ﺎﺧ ﺘ ﻪ ﺷ ﺪه ﻣ ﺠ ﺎز ﺑ ﺎﺷ ﺪ دارﯾ ﻢ ‪ a = ۴‬و ‪ b = ۴‬و در ﻧ ﺘ ﯿ ﺠ ﻪ ﺑ ﻪ ‪ ۱۶‬ﺣ ﺎﻟ ﺖ ﻣ ﺨ ﺘ ﻠ ﻒ ﻣ ﯽ ﺗ ﻮان‬

‫‪٩‬‬
‫اﻋﺪاد دو رﻗﻤﯽ ﺳﺎﺧﺖ‪ .‬اﻣﺎ اﮔﺮ ﺗﮑﺮار در ﻋﺪد ﺳﺎﺧﺘﻪ ﺷﺪه ﻣﺠﺎز ﻧﺒﺎﺷﺪ‪ ،‬دارﯾﻢ ‪ a = ۴‬و ‪ b = ۳‬و در ﻧﺘﯿﺠﻪ ﺑﻪ‬
‫‪ ۱۲‬ﺣﺎﻟﺖ ﻣﺨﺘﻠﻒ ﻣﯽ ﺗﻮان اﻋﺪاد ﻣﻮرد ﻧﻈﺮ را ﺳﺎﺧﺖ‪.‬‬
‫اﺻﻞ ﺟﻤﻊ‪ :‬ﻓﺮض ﮐﻨﯿﺪ ﯾﮏ ﮐﺎر را ﺑﺘﻮان ﺑﺎ دو ﻋﻤﻞ ‪ A‬ﯾﺎ ‪ B‬اﻧﺠﺎم داد‪ .‬اﮔﺮ ﻋﻤﻞ ‪ A‬را ﺑﻪ ‪ a‬ﻃﺮﯾﻖ و ﻋﻤﻞ‬
‫‪ B‬را ﺑ ﻪ ‪ b‬ﻃ ﺮﯾ ﻖ ﺑ ﺘ ﻮان اﻧ ﺠ ﺎم داد و اﯾ ﻦ دو ﻋ ﻤ ﻞ ﻧ ﺘ ﻮاﻧ ﻨ ﺪ ﺑ ﻪ ﻃ ﻮر ھ ﻤ ﺰﻣ ﺎن اﻧ ﺠ ﺎم ﺷ ﻮﻧ ﺪ آﻧ ﮕ ﺎه ﮐ ﺎر ﻣ ﻮرد ﻧ ﻈ ﺮ ﺑ ﻪ‬
‫‪ a + b‬ﻃ ﺮﯾ ﻖ اﻧ ﺠ ﺎم ﻣ ﯽ ﭘ ﺬﯾ ﺮد‪ .‬ﺑ ﺮای ﻣ ﺜ ﺎل آزﻣ ﺎﯾ ﺶ اﻧ ﺘ ﺨ ﺎب ‪ ٢‬داﻧ ﺸ ﺠ ﻮی ھ ﻤ ﺠ ﻨ ﺲ از ﺑ ﯿ ﻦ داﻧ ﺸ ﺠ ﻮﯾ ﺎن و رﺗ ﺒ ﻪ‬
‫ﺑﻨﺪی آن ھﺎ ﯾﮏ ﮐﻼس را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬اﻧﺘﺨﺎب ‪ ٢‬داﻧﺸﺠﻮی ھﻤﺠﻨﺲ ﻣﯽ ﺗﻮاﻧﺪ ﺑﺎ دو ﻋﻤﻞ زﯾﺮ اﻧﺠﺎم ﺷﻮد‪:‬‬
‫اﻧﺘﺨﺎب دو ﺧﺎﻧﻢ داﻧﺸﺠﻮ‪ :‬ﻋﻤﻞ ‪A‬‬
‫اﻧﺘﺨﺎب دو داﻧﺸﺠﻮی آﻗﺎ‪ :‬ﻋﻤﻞ ‪B‬‬
‫اﮔﺮ ﮐﻼس ﻣﻮرد ﻧﻈﺮ ﻣﺘﺸﮑﻞ از ‪ ۴‬ﺧﺎﻧﻢ و ‪ ۵‬آﻗﺎ ﺑﺎﺷﺪ‪ ،‬ﻃﺒﻖ اﺻﻞ ﺿﺮب ﻋﻤﻞ ‪ A‬ﺑﻪ ‪ ۴ × ۳ = ۱۲‬و ﻋﻤﻞ ‪ B‬ﺑﻪ‬
‫‪ ۵ × ۴ = ۲۰‬ﺣﺎﻟﺖ ﻣﺨﺘﻠﻒ ﻣﯽ ﺗﻮاﻧﺪ اﻧﺠﺎم ﺷﻮد و ﺑﻨﺎﺑﺮاﯾﻦ ﮐﻞ ﺣﺎﻟﺖ ھﺎی اﻧﺘﺨﺎب داﻧﺸﺠﻮی ھﻤﺠﻨﺲ ﺑﺮاﺑﺮ‬
‫ﺑﺎ ‪ ۳۲‬اﺳﺖ‪.‬‬
‫ﻣﯽ ﺗﻮان اﺻﻞ ﺟﻤﻊ و ﺿﺮب را ﺑﺮای آزﻣﺎﯾﺶ ھﺎﯾﯽ ﺑﺎ ‪ k‬ﻋﻤﻞ ﺗﻌﻤﯿﻢ داد‪ .‬ﻣﺜﻼ آزﻣﺎﯾﺶ اﻧﺘﺨﺎب ‪١٠‬‬
‫داﻧﺸﺠﻮی ھﻤﺠﻨﺲ از ﯾﮏ داﻧﺸﮕﺎه را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .۴-١‬ﻗﺮار ﮔﺮﻓﺘﻦ ‪ k‬ﺷﯽء ﻣﺘﻤﺎﯾﺰ در ﮐﻨﺎر در ﯾﮏ ﺻﻒ ھﻢ را ﯾﮏ ﺟﺎﯾﮕﺸﺖ ﻣﯽ ﻧﺎﻣﻨﺪ‪ .‬در واﻗﻊ ﺗﺮﺗﯿﺒﯽ‬
‫ﮐ ﻪ ﻣ ﯽ ﺗ ﻮان اﺷ ﯿ ﺎ ﯾ ﮏ ﻣ ﺠ ﻤ ﻮﻋ ﻪ را در ﮐ ﻨ ﺎر ھ ﻢ ﻗ ﺮار داد ﯾ ﮏ ﺟ ﺎﯾ ﮕ ﺸ ﺖ ﮔ ﻔ ﺘ ﻪ ﻣ ﯽ ﺷ ﻮد و ﺑ ﻪ ﺻ ﻮرت زﯾ ﺮ ﺑ ﺪﺳ ﺖ‬
‫ﻣﯽ آﯾﺪ‬
‫!‪P(n, n) = Pnn = n × (n − ۱) × (n − ۲) × . . . × ۲ × ۱ = n‬‬

‫ﮔ ﺎھ ﯽ ھ ﺮ آراﯾ ﺶ ﺧ ﻄ ﯽ ‪ r‬ﺷ ﯽء از ‪ n‬ﺷ ﯽء ﻣ ﺪﻧ ﻈ ﺮ ﻣ ﺎ ﺑ ﻮده ﮐ ﻪ ھ ﻤ ﺎن ﺟ ﺎﯾ ﮕ ﺸ ﺖ ‪ r‬ﺷ ﯽء از ‪ n‬ﺷ ﯽء اﺳ ﺖ و ﺑ ﻪ‬


‫ﺻﻮرت زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‬
‫!‪n‬‬
‫= )‪P(n, r) = Pnr = n × (n − ۱) × (n − ۲) × . . . × (n − r + ۱‬‬
‫!)‪(n − r‬‬
‫ﻣ ﺜ ﺎل ‪ .۵-١‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﺑ ﺨ ﻮاھ ﯿ ﻢ ﺗ ﻌ ﺪاد ﺣ ﺎﻟ ﺖ ھ ﺎﯾ ﯽ ﮐ ﻪ ﻣ ﯽ ﺗ ﻮان ﯾ ﮏ ﮐ ﻠ ﻤ ﻪ ﺳ ﻪ ﺣ ﺮﻓ ﯽ را ﺑ ﺎ اﺳ ﺘ ﻔ ﺎده‬
‫از ﺣ ﺮوف ‪ a،b،c،d‬ﺳ ﺎﺧ ﺖ را ﻣ ﺤ ﺎﺳ ﺒ ﻪ ﮐ ﻨ ﯿ ﻢ‪ .‬اﮔ ﺮ ﺗ ﮑ ﺮار ﺣ ﺮوف ﻣ ﺠ ﺎز ﺑ ﺎﺷ ﺪ‪ ،‬ﻃ ﺒ ﻖ اﺻ ﻞ ﺿ ﺮب دارﯾ ﻢ‬
‫= ‪.n(S) = P۴۳‬‬ ‫!‪۴‬‬
‫!‪۱‬‬ ‫‪ n(S) = ۴ × ۴ × ۴ = ۴۳‬و اﮔﺮ ﺗﮑﺮار ﺣﺮوف ﻣﺠﺎز ﻧﺒﺎﺷﺪ دارﯾﻢ ‪= ۲۴‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ در ﺟﺎﯾﮕﺸﺖ ﺗﺮﺗﯿﺐ اﻧﺘﺨﺎب ھﺎ ﻣﻬﻢ اﺳﺖ‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .۶-١‬اﻧﺘﺨﺎب ‪ r‬ﺷﯽء از ‪ n‬ﺷﯽء ﺑﻪ ﻃﻮری ﮐﻪ ﺗﺮﺗﯿﺐ اﻧﺘﺨﺎب ھﺎ ﻣﻬﻢ ﻧﺒﺎﺷﺪ ﺗﺮﮐﯿﺐ ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮد و ﺑﻪ‬

‫‪ ‬‬ ‫ﺻﻮرت زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‬


‫‪n‬‬ ‫!‪n‬‬
‫=‪ ‬‬
‫‪r‬‬ ‫!)‪r!(n − r‬‬

‫‪١٠‬‬
‫ﻣﺜﺎل ‪ .٧-١‬از ﺑﯿﻦ ‪ ۴‬ﭘﺰﺷﮏ و ‪ ٣‬ﭘﺮﺳﺘﺎر ﻣﯽ ﺧﻮاھﯿﻢ ﯾﮏ ﮐﻤﯿﺘﻪ ‪ ۴‬ﻧﻔﺮی ﺗﺸﮑﯿﻞ دھﯿﻢ‪.‬‬

‫‪ .i‬اﺣﺘﻤﺎل اﯾﻨﮑﻪ اﻋﻀﺎی ﮐﻤﯿﺘﻪ ﺷﺎﻣﻞ دو ﭘﺰﺷﮏ و دو ﭘﺮﺳﺘﺎر ﺑﺎﺷﺪ را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪ .ii‬اﺣﺘﻤﺎل اﯾﻨﮑﻪ اﻋﻀﺎی ﮐﻤﯿﺘﻪ ﺷﺎﻣﻞ ﺣﺪاﻗﻞ ‪ ٢‬ﭘﺮﺳﺘﺎر ﺑﺎﺷﺪ ﭼﻘﺪر اﺳﺖ؟‬

‫‪ .i‬در اﯾﻨﺠﺎ ﭘﯿﺸﺎﻣﺪ ‪ A‬را ﭘﯿﺸﺎﻣﺪ اﻧﺘﺨﺎب دو ﭘﺰﺷﮏ و دو ﭘﺮﺳﺘﺎر ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﭼﻮن ﺗﺮﺗﯿﺐ اﻧﺘﺨﺎب ھﺎ‬
‫ﻣﻬﻢ ﻧﯿﺴﺖ دارﯾﻢ‬
‫‪ ‬‬ ‫‪ ‬‬
‫‪۴‬‬ ‫‪۳‬‬
‫‪ × ‬‬
‫)‪n(A‬‬ ‫‪۲‬‬ ‫‪۲‬‬ ‫!‪۴‬‬
‫×‬ ‫!‪۳‬‬
‫‪۱۸‬‬
‫= )‪P(A‬‬ ‫=‬ ‫‪ ‬‬ ‫=‬ ‫!‪۲!×۲‬‬
‫!‪۷‬‬
‫!‪۲!×۱‬‬
‫=‬
‫)‪n(S‬‬ ‫‪۷‬‬ ‫!‪۴!×۳‬‬
‫‪۳۵‬‬
‫‪ ‬‬
‫‪۴‬‬

‫‪ .ii‬ﭘ ﯿ ﺸ ﺎﻣ ﺪ ‪ B‬را ﭘ ﯿ ﺸ ﺎﻣ ﺪ اﻧ ﺘ ﺨ ﺎب ﺣ ﺪاﻗ ﻞ ‪ ۲‬ﭘ ﺮﺳ ﺘ ﺎر ﺗ ﻌ ﺮﯾ ﻒ ﻣ ﯽ ﮐ ﻨ ﯿ ﻢ‪ .‬رخ دادن ﭘ ﯿ ﺸ ﺎﻣ ﺪ ‪ B‬ﻣ ﺘ ﺸ ﮑ ﻞ از دو‬


‫ﻋﻤﻞ اﺳﺖ ﺑﻪ اﯾﻦ ﺻﻮرت ﮐﻪ دو ﭘﺮﺳﺘﺎر اﻧﺘﺨﺎب ﺷﻮد و ﯾﺎ ‪ ٣‬ﭘﺮﺳﺘﺎر اﻧﺘﺨﺎب ﺷﻮد )ﺑﯿﺸﺘﺮ از ‪ ٣‬ﭘﺮﺳﺘﺎر‬
‫ﻧﻤﯽ ﺗﻮان اﻧﺘﺨﺎب ﮐﺮد ﭼﻮن ﮐﻼ ‪ ٣‬ﭘﺮﺳﺘﺎر ﻣﻮﺟﻮد اﺳﺖ(‪ .‬ﭘﺲ دارﯾﻢ‬
‫‪ ‬‬ ‫‪   ‬‬ ‫‪ ‬‬
‫‪۳‬‬ ‫‪۴‬‬ ‫‪۳‬‬ ‫‪۴‬‬
‫‪ ×   × ‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۳‬‬ ‫‪۱‬‬ ‫!‪۳‬‬
‫×‬ ‫!‪۴‬‬ ‫!‪۳‬‬
‫×‬ ‫!‪۴‬‬
‫‪۱۸ ۴‬‬ ‫‪۲۲‬‬
‫= )‪P(B‬‬ ‫‪ ‬‬ ‫‪+‬‬ ‫‪ ‬‬ ‫=‬ ‫!‪۲!×۱‬‬
‫!‪۷‬‬
‫!‪۲!×۲‬‬
‫!‪+ ۳!×۰‬‬ ‫!‪۷‬‬
‫!‪۱!×۳‬‬
‫=‬ ‫‪+‬‬ ‫=‬
‫‪۷‬‬ ‫‪۷‬‬ ‫!‪۴!×۳‬‬ ‫!‪۴!×۳‬‬
‫‪۳۵ ۳۵ ۳۵‬‬
‫‪ ‬‬ ‫‪ ‬‬
‫‪۴‬‬ ‫‪۴‬‬

‫اﺣﺘﻤﺎل ﺷﺮﻃﯽ‪ :‬در ﺑﺮﺧﯽ از آزﻣﺎﯾﺶ ھﺎ ﮔﺎھﯽ ﻣﯽ ﺧﻮاھﯿﻢ اﺣﺘﻤﺎل ﭘﯿﺸﺎﻣﺪی ﻣﺜﻞ ‪ B‬را ﻣﺸﺮوط ﺑﺮ اﯾﻨﮑﻪ‬
‫ﭘﯿﺸﺎﻣﺪ دﯾﮕﺮی ھﻤﭽﻮن ‪ A‬اﺗﻔﺎق اﻓﺘﺎده ﺑﺎﺷﺪ‪ ،‬ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﻢ‪ .‬ﭼﻨﯿﻦ اﺣﺘﻤﺎﻟﯽ را اﺣﺘﻤﺎل ‪ B‬ﺑﻪ ﺷﺮط ‪ A‬ﮔﻮﯾﻨﺪ ﮐﻪ‬
‫ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‬
‫)‪P(A ∩ B‬‬
‫= )‪P(B|A‬‬ ‫)‪(١-١‬‬
‫)‪P(A‬‬

‫ﺑﺮای ﻣﺜﺎل آزﻣﺎﯾﺶ ﭘﺮﺗﺎب ﯾﮏ ﺗﺎس را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬

‫‪ .i‬اﮔﺮ ‪ A‬ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﻋﺪد ﻓﺮد در اﯾﻦ آزﻣﺎﯾﺶ ﺑﺎﺷﺪ دارﯾﻢ‬

‫)‪n(A‬‬ ‫‪۳‬‬
‫= )‪P(A‬‬ ‫=‬
‫)‪n(S‬‬ ‫‪۶‬‬

‫‪١١‬‬
‫‪ .ii‬اﮔﺮ ﺑﺪاﻧﯿﻢ ﮐﻪ ﻋﺪد ﻣﺸﺎھﺪه ﺷﺪه اول اﺳﺖ‪ ،‬ﺑﺮای ﻣﺤﺎﺳﺒﻪ اﺣﺘﻤﺎل ﻣﺸﺎھﺪه ﻋﺪد ﻓﺮد دارﯾﻢ‬
‫ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﻋﺪد اول‪B :‬‬
‫ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﻋﺪد ﻓﺮد‪A :‬‬
‫}‪ B = {۲, ۳, ۵} ،A = {۱, ۳, ۵‬و }‪ A ∩ B = {۳, ۵‬ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪۲‬‬
‫)‪P(A ∩ B‬‬ ‫‪۶‬‬ ‫‪۲‬‬
‫= )‪P(A|B‬‬ ‫=‬ ‫‪۳‬‬
‫=‬
‫)‪P(B‬‬ ‫‪۶‬‬
‫‪۳‬‬

‫‪ .iii‬اﮔﺮ ﻋﺪد ﻣﺸﺎھﺪه ﺷﺪه ﺑﺰرﮔﺘﺮ از ‪ ٣‬ﺑﺎﺷﺪ‪ ،‬ﻣﯽ ﺧﻮاھﯿﻢ ﺑﺮرﺳﯽ ﮐﻨﯿﻢ ﮐﻪ ﺑﺎ ﭼﻪ اﺣﺘﻤﺎﻟﯽ ﻋﺪد ﻣﺸﺎھﺪه ﺷﺪه‬
‫ﻓﺮد اﺳﺖ‪ .‬در اﯾﻦ ﺣﺎﻟﺖ دارﯾﻢ‪:‬‬
‫ﭘﯿﺸﺎﻣﺪ ﻣﺸﺎھﺪه ﻋﺪد ﺑﺰرﮔﺘﺮ از ‪C :٣‬‬
‫}‪ C = {۴, ۵, ۶‬و }‪ A ∩ C = {۵‬و از اﯾﻨﺮو‬

‫‪۱‬‬
‫)‪P(A ∩ C‬‬ ‫‪۶‬‬ ‫‪۱‬‬
‫= )‪P(A|C‬‬ ‫=‬ ‫‪۳‬‬
‫=‬
‫)‪P(C‬‬ ‫‪۶‬‬
‫‪۳‬‬

‫ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ در اﯾﻦ ﻣﺜﺎل اﺣﺘﻤﺎل ﭘﯿﺸﺎﻣﺪ ‪ A‬ﻣﺸﺮوط ﺑﺮ ھﺮ ﯾﮏ از ﭘﯿﺸﺎﻣﺪھﺎی ‪ B‬و ‪ C‬ﻣﺘﻔﺎوت از‬
‫اﺣﺘﻤﺎل ‪ A‬ﺑﻮد‪ .‬درواﻗﻊ ﭘﯿﺸﺎﻣﺪ ‪ A‬ﻣﺴﺘﻘﻞ از اﯾﻦ دو ﭘﯿﺸﺎﻣﺪ ﻧﺒﻮده اﺳﺖ‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٨-١‬دو ﭘﯿﺸﺎﻣﺪ ‪ A‬و ‪ B‬را ﻣﺴﺘﻘﻞ ﮔﻮﯾﻨﺪ ھﺮﮔﺎه )‪ .P(A|B) = P(A‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ اﺣﺘﻤﺎل ﺷﺮﻃﯽ در‬
‫راﺑﻄﻪ )‪ ،(١-١‬دو ﭘﯿﺸﺎﻣﺪ ‪ A‬و ‪ B‬ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‬

‫)‪P(A ∩ B) = P(A)P(B‬‬ ‫)‪(٢-١‬‬

‫⋆ ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﭘﯿﺸﺎﻣﺪھﺎی ﻣﺴﺘﻘﻞ ﻣﯽ ﺗﻮاﻧﻨﺪ ﺑﻪ ﻃﻮر ھﻤﺰﻣﺎن رخ دھﻨﺪ اﻣﺎ رخ دادن ﯾﮑﯽ از آن ھﺎ‬
‫ﺗ ﺎﺛ ﯿ ﺮی ﺑ ﺮ رخ دادن دﯾ ﮕ ﺮی ﻧ ﺪارد‪ .‬در ﺣ ﺎﻟ ﯽ ﮐ ﻪ ﭘ ﯿ ﺸ ﺎﻣ ﺪھ ﺎی ﻣ ﺠ ﺰا ﯾ ﺎ ﻧ ﺎﺳ ﺎزﮔ ﺎر‪ ،‬ﻧ ﻤ ﯽ ﺗ ﻮاﻧ ﻨ ﺪ ﺑ ﻪ ﻃ ﻮر‬
‫ھﻤﺰﻣﺎن اﺗﻔﺎق ﺑﯿﻔﺘﻨﺪ‪.‬‬
‫اﮔ ﺮ دو ﭘ ﯿ ﺸ ﺎﻣ ﺪ ھ ﻢ ﻣ ﺴ ﺘ ﻘ ﻞ ﺑ ﺎﺷ ﻨ ﺪ و ھ ﻢ ﻧ ﺎﺳ ﺎزﮔ ﺎر آن ﮔ ﺎه ﺣ ﺪاﻗ ﻞ اﺣ ﺘ ﻤ ﺎل ﯾ ﮑ ﯽ از ﭘ ﯿ ﺸ ﺎﻣ ﺪھ ﺎ ﺑ ﺮاﺑ ﺮ ﺑ ﺎ ﺻ ﻔ ﺮ‬
‫اﺳﺖ ﭼﻮن دارﯾﻢ‬
‫‪P(A ∩ B) = ۰‬‬ ‫‪and‬‬ ‫)‪P(A ∩ B) = P(A)P(B‬‬

‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ اﺣﺘﻤﺎل ﺷﺮﻃﯽ در راﺑﻄﻪ )‪ ،(١-١‬ﺑﺮای ھﺮ دو ﭘﯿﺸﺎﻣﺪ دﻟﺨﻮاه ‪ A‬و ‪ B‬دارﯾﻢ‬

‫)‪P(A ∩ B‬‬ ‫)‪P(B|A)P(A‬‬


‫= )‪P(A|B‬‬ ‫=‬
‫)‪P (B‬‬ ‫)‪P (B‬‬

‫‪١٢‬‬
‫ﺷﮑﻞ ‪ :٢-١‬ﻧﻤﺎﯾﺶ دو ﭘﯿﺸﺎﻣﺪ دﻟﺨﻮاه ‪ A‬و ‪ B‬در ﯾﮏ ﻓﻀﺎی ﻧﻤﻮﻧﻪ ‪S‬‬

‫ھﻤﭽﻨﯿﻦ ﭼﻮن ) ‪) P(B) = P(B ∩ A) + P(B ∩ A′‬ﺷﮑﻞ ‪ ٢-١‬را ﺑﺒﯿﻨﯿﺪ(‪ ،‬ﻣﯽ ﺗﻮان راﺑﻄﻪ ﺑﺎﻻ را ﺑﻪ ﺻﻮرت‬
‫زﯾﺮ ﺑﺎزﻧﻮﯾﺴﯽ ﮐﺮد‬
‫)‪P(B|A)P(A‬‬
‫= )‪P(A|B‬‬ ‫‪.‬‬
‫) ‪P(B|A)P(A) + P(B|A′ )P(A′‬‬
‫ﺑ ﻪ ﻃ ﻮر ﮐ ﻠ ﯽ اﮔ ﺮ ‪ E۱ , E۲ , . . . , En‬اﻓ ﺮازھ ﺎی ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ ‪ S‬ﺑ ﺎﺷ ﻨ ﺪ‪ ،‬ﻣ ﯽ ﺗ ﻮان راﺑ ﻄ ﻪ ﺑ ﺎﻻ را ﺑ ﻪ ﺻ ﻮرت زﯾ ﺮ‬
‫ﺗﻌﻤﯿﻢ داد ﮐﻪ ﺑﻪ ﻓﺮﻣﻮل اﺣﺘﻤﺎل ﺑﯿﺰ ﻣﻌﺮوف اﺳﺖ‬

‫) ‪P(B|Ej )P(Ej‬‬
‫‪P(Ej |B) = ∑n‬‬
‫) ‪i=۱ P(B|Ei )P(Ei‬‬

‫ﻣ ﺜ ﺎل ‪ .٩-١‬از ﺟ ﺎﻣ ﻌ ﻪ ای ﮐ ﻪ ‪ ۴٠‬درﺻ ﺪ آن ھ ﺎ را ﻣ ﺮدان و ‪ ۶٠‬درﺻ ﺪ را زﻧ ﺎن ﺗ ﺸ ﮑ ﯿ ﻞ ﻣ ﯽ دھ ﻨ ﺪ‪ ،‬ﯾ ﮏ ﻧ ﻔ ﺮ را‬


‫اﻧﺘﺨﺎب ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﻓﺮض ﮐﻨﯿﺪ ‪ ۵٠‬درﺻﺪ از ﻣﺮدان و ‪ ٣٠‬درﺻﺪ از زﻧﺎن ﺳﯿﮕﺎری ﺑﺎﺷﻨﺪ‪ .‬اﮔﺮ ﻓﺮد اﻧﺘﺨﺎب ﺷﺪه‬
‫ﺳﯿﮕﺎری ﺑﺎﺷﺪ‪ ،‬ﺑﺎ ﭼﻪ اﺣﺘﻤﺎﻟﯽ ﻣﺮد اﺳﺖ؟‬
‫ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪:‬‬
‫ﺳﯿﮕﺎری ﺑﻮدن‪A :‬‬
‫ﻣﺮد ﺑﻮدن‪B :‬‬
‫ﻣﯽ ﺧﻮاھﯿﻢ ﻣﻘﺪار )‪ P(B|A‬را ﺑﺪﺳﺖ آورﯾﻢ‪ .‬ﻃﺒﻖ ﻗﺎﻧﻮن اﺣﺘﻤﺎل ﺑﯿﺰ دارﯾﻢ‬

‫)‪P(A|B)P(B‬‬
‫= )‪P(B|A‬‬
‫)‪P(A‬‬
‫)‪P(A|B)P(B‬‬
‫=‬
‫) ‪P(A|B)P(B) + P(A|B ′ )P(B ′‬‬
‫)‪(۰٫ ۵)(۰٫ ۴‬‬
‫=‬
‫)‪(۰٫ ۵)(۰٫ ۴) + (۰٫ ۳)(۰٫ ۶‬‬
‫‪۰٫ ۲‬‬
‫=‬ ‫‪= ۰٫ ۵۳‬‬
‫‪۰٫ ۳۸‬‬
‫‪١٣‬‬
‫ﻣﺜﺎل ‪ .١٠-١‬ﻓﺮض ﮐﻨﯿﺪ ﯾﮏ ﻣﻮﺳﺴﻪ ﺑﯿﻤﻪ اﻓﺮاد را ﺑﻪ ﺳﻪ ﮔﺮوه دارای رﯾﺴﮏ ﺑﺎﻻ‪ ،‬ﻣﺘﻮﺳﻂ و ﭘﺎﯾﯿﻦ ﺗﻘﺴﯿﻢ ﻧﻤﻮده‬
‫اﺳﺖ ﮐﻪ ﺑﻪ ﺗﺮﺗﯿﺐ ‪ ۵٠ ،٢٠‬و ‪ ٣٠‬درﺻﺪ ﺟﺎﻣﻌﻪ را ﺗﺸﮑﯿﻞ ﻣﯽ دھﻨﺪ‪ .‬اﻃﻼﻋﺎت اﯾﻦ ﻣﻮﺳﺴﻪ ﻧﺸﺎن ﻣﯽ دھﺪ ﮐﻪ‬
‫اﺣﺘﻤﺎل ﺗﺼﺎدف ﮐﺮدن اﯾﻦ ﮔﺮوه ھﺎ در ﻃﻮل ﺳﺎل ﺑﻪ ﺗﺮﺗﯿﺐ ‪ ١۵ ،٣٠‬و ‪ ۵‬درﺻﺪ اﺳﺖ‪.‬‬

‫‪ .i‬اﮔ ﺮ از از ﺑ ﯿ ﻦ اﻓ ﺮاد ﺑ ﯿ ﻤ ﻪ ﺷ ﺪه ﯾ ﮏ ﻧ ﻔ ﺮ را ﺑ ﻪ ﺗ ﺼ ﺎدف اﻧ ﺘ ﺨ ﺎب ﮐ ﻨ ﯿ ﻢ اﺣ ﺘ ﻤ ﺎل اﯾ ﻨ ﮑ ﻪ در ﻃ ﻮل ﺳ ﺎل ﺗ ﺼ ﺎدف‬


‫داﺷﺘﻪ ﺑﺎﺷﺪ ﭼﻘﺪر اﺳﺖ؟‬

‫‪ .ii‬اﮔﺮ از اﻓﺮاد ﺑﯿﻤﻪ ﺷﺪه ﯾﮏ ﻧﻔﺮ اﻧﺘﺨﺎب ﺷﻮد ﮐﻪ در ﯾﮏ ﺳﺎل ﮔﺬﺷﺘﻪ ﺗﺼﺎدف داﺷﺘﻪ اﺳﺖ‪ ،‬اﺣﺘﻤﺎل اﯾﻨﮑﻪ‬
‫اﯾﻦ ﺷﺨﺺ از ﮔﺮوه ﺑﺎ رﯾﺴﮏ ﺑﺎﻻ ﺑﺎﺷﺪ را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪ .i‬ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪:‬‬
‫داﺷﺘﻦ ﺗﺼﺎدف در ﯾﮑﺴﺎل ﮔﺬﺷﺘﻪ‪A :‬‬
‫اﻓﺮاد ﺑﺎ رﯾﺴﮏ ﺑﺎﻻ‪E۱ :‬‬
‫اﻓﺮاد ﺑﺎ رﯾﺴﮏ ﻣﺘﻮﺳﻂ‪E۲ :‬‬
‫اﻓﺮاد ﺑﺎ رﯾﺴﮏ ﭘﺎﯾﯿﻦ‪E۳ :‬‬
‫ھﻤﭽﻨﯿﻦ ﻃﺒﻖ داده ھﺎی ﻣﺴﺎﻟﻪ دارﯾﻢ‪ P(A|E۲ ) = ۰٫ ۱۵ ،P(A|E۱ ) = ۰٫ ۳ :‬و ‪.P(A|E۳ ) = ۰٫ ۰۵‬‬
‫ﭘﺲ‬

‫) ‪P(A) = P(A|E۱ )P(E۱ ) + P(A|E۲ )P(E۲ ) + P(A|E۳ )P(E۳‬‬

‫‪= (۰٫ ۳)(۰٫ ۲) + (۰٫ ۱۵)(۰٫ ۵) + (۰٫ ۰۵)(۰٫ ۳) = ۰٫ ۱۵‬‬

‫‪ .ii‬ﻣﯽ ﺧﻮاھﯿﻢ ﻣﻘﺪار )‪ P(E۱ |A‬را ﺑﺪﺳﺖ آورﯾﻢ‪ .‬دارﯾﻢ‬

‫) ‪P(A|E۱ )P(E۱‬‬ ‫)‪(۰٫ ۳)(۰٫ ۲‬‬


‫= )‪P(E۱ |A‬‬ ‫=‬ ‫‪= ۰٫ ۴‬‬
‫)‪P(A‬‬ ‫‪۰٫ ۱۵‬‬

‫‪١۴‬‬
‫ﻓﺼ ﻞ ‪٢‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ و اﻧﻮاع آن‬

‫ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﺗﺎﺑﻌﯽ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ﺑﻪ ﻣﺠﻤﻮﻋﻪ اﻋﺪاد ﺣﻘﯿﻘﯽ اﺳﺖ ﺑﻪ ﻃﻮری ﮐﻪ ﺑﻪ ھﺮ‬
‫ﻧﻘﻄﻪ از ﻓﻀﺎی ﻧﻤﻮﻧﻪ ﯾﮏ ﻋﺪد ﺣﻘﯿﻘﯽ ﻧﺴﺒﺖ داده ﻣﯽ ﺷﻮد‪ .‬ﺑﺮای ﻧﻤﺎﯾﺶ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ از ﺣﺮوف ﺑﺰرگ‬
‫ﻻﺗﯿﻦ ﻣﺎﻧﻨﺪ ‪ Y ،X‬و ‪ Z‬اﺳﺘﻔﺎده ﻣﯽ ﺷﻮد‪ .‬دارﯾﻢ‬

‫‪X : S −→ SX ⊆ R‬‬

‫ﺑﻪ ﻃﻮری ﮐﻪ‪،‬‬

‫• ‪ :X‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬

‫• ‪ :SX‬زﯾ ﺮ ﻣ ﺠ ﻤ ﻮﻋ ﻪ ای از اﻋ ﺪاد ﺣ ﻘ ﯿ ﻘ ﯽ اﺳ ﺖ و ﻧ ﺸ ﺎﻧ ﮕ ﺮ ﻣ ﺠ ﻤ ﻮﻋ ﻪ ﻣ ﻘ ﺎدﯾ ﺮی اﺳ ﺖ ﮐ ﻪ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪X‬‬


‫ﻣﯽ ﮔﯿﺮد و ﺑﻪ آن ﺗﮑﯿﻪ ﮔﺎه ‪ X‬ﻣﯽ ﮔﻮﯾﻨﺪ‪.‬‬

‫در واﻗ ﻊ ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﻧ ﻤ ﺎﯾ ﺶ رﯾ ﺎﺿ ﯽ ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ اﺳ ﺖ و ھ ﺮ ﭘ ﯿ ﺸ ﺎﻣ ﺪ از ﻓ ﻀ ﺎی ﻧ ﻤ ﻮﻧ ﻪ را ﺑ ﺎ ﯾ ﮏ ﻋ ﺪد‬


‫ﻧ ﻤ ﺎﯾ ﺶ ﻣ ﯽ دھ ﺪ‪ .‬ﺗ ﻮﺟ ﻪ داﺷ ﺘ ﻪ ﺑ ﺎﺷ ﯿ ﺪ ﮐ ﻪ در ﯾ ﮏ آزﻣ ﺎﯾ ﺶ ﺗ ﺼ ﺎدﻓ ﯽ ﻣ ﯽ ﺗ ﻮان ﺑ ﻪ ﺗ ﻌ ﺪاد ﻧ ﺎﻣ ﺘ ﻨ ﺎھ ﯽ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ‬
‫ﺗﻌﺮﯾﻒ ﮐﺮد‪.‬‬
‫ﻣﺜﺎل ‪ .١-٢‬آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ﭘﺮﺗﺎب ﺳﻪ ﺳﮑﻪ را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬ﺑﺎ ﻓﺮض اﯾﻨﮑﻪ ‪ T‬ﻧﺸﺎن دھﻨﺪه ﻇﺎھﺮ ﺷﺪن ﺧﻂ‬
‫و ‪ H‬ﻧﺸﺎن دھﻨﺪه ﺷﯿﺮ ﺑﺎﺷﺪ‪ ،‬اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﺗﻌﺪاد ﺷﯿﺮھﺎی ﻣﺸﺎھﺪه ﺷﺪه ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ‪ ،‬دارﯾﻢ‬

‫‪S‬‬ ‫‪= {T‬‬ ‫‪T T}, HT T, T HT, T T H , T HH, HT H, HHT , HHH‬‬


‫‪| {z‬‬ ‫}‬
‫|‬ ‫‪{z‬‬ ‫| }‬ ‫‪{z‬‬ ‫} ‪} | {z‬‬
‫‪SX‬‬ ‫=‬ ‫‪{ ۰,‬‬ ‫‪۱,‬‬ ‫‪۲,‬‬ ‫}‪۳‬‬

‫ﻣ ﺜ ﺎل ‪ .٢-٢‬ﺳ ﮑ ﻪ ای ﺷ ﺎﻧ ﺲ ﻣ ﺸ ﺎھ ﺪه ﺷ ﯿ ﺮ در آن دو ﺑ ﺮاﺑ ﺮ ﺧ ﻂ اﺳ ﺖ‪ .‬ﺳ ﮑ ﻪ را آﻧ ﻘ ﺪر ﭘ ﺮﺗ ﺎب ﻣ ﯽ ﮐ ﻨ ﯿ ﻢ ﺗ ﺎ ﺑ ﺮای‬


‫اوﻟﯿﻦ ﺑﺎر ﺧﻂ ﻣﺸﺎھﺪه ﺷﻮد‪ .‬اﮔﺮ ‪ X‬ﺑﺮاﺑﺮ ﺑﺎ ﺗﻌﺪاد ﭘﺮﺗﺎب ھﺎی ﻻزم ﺗﺎ ﻣﺸﺎھﺪه اوﻟﯿﻦ ﺧﻂ ﺑﺎﺷﺪ‪ ،‬اﺣﺘﻤﺎل اﯾﻨﮑﻪ‬
‫ﺣﺪاﻗﻞ ‪ ۴‬ﭘﺮﺗﺎب ﻻزم ﺑﺎﺷﺪ را ﺑﯿﺎﺑﯿﺪ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬دارﯾﻢ‬

‫‪S‬‬ ‫}‪= {|{z‬‬


‫}‪T , |{z‬‬
‫‪HT , HHT‬‬
‫‪| {z }, |HHHT‬‬
‫}‪{z }, . . .‬‬
‫‪SX‬‬ ‫‪= { ۱,‬‬ ‫‪۲,‬‬ ‫‪۳,‬‬ ‫‪۴,‬‬ ‫}‪. . .‬‬

‫ﻣﺸﺎﺑﻪ ﻣﺜﺎل ‪ T ،١-٢‬ﻧﺸﺎن دھﻨﺪه ﻣﺸﺎھﺪه ﺧﻂ در اوﻟﯿﻦ ﭘﺮﺗﺎب‪ HT ،‬ﻧﺸﺎن دھﻨﺪه ﻣﺸﺎھﺪه ﺧﻂ در دوﻣﯿﻦ‬
‫ﭘﺮﺗﺎب‪ HHT ،‬ﻧﺸﺎن دھﻨﺪه ﻣﺸﺎھﺪه ﺧﻂ در ﺳﻮﻣﯿﻦ ﭘﺮﺗﺎب و ھﻤﯿﻦ ﻃﻮر ﺗﺎ آﺧﺮ اﺳﺖ‪ .‬ﻃﺒﻖ اﻃﻼﻋﺎت ﻣﺴﺎﻟﻪ‬
‫دارﯾﻢ‬

‫) ‪P(H) = ۲P(T‬‬

‫‪P(H) + P(T ) = ۱‬‬

‫= )‪ P(H‬و‬ ‫‪۲‬‬
‫‪۳‬‬ ‫= ) ‪،P(T‬‬ ‫‪۱‬‬
‫‪۳‬‬ ‫ﭘﺲ‬
‫‪۱‬‬
‫= )} ‪P(X = ۱) = P({T‬‬
‫‪۳‬‬
‫‪۲ ۱‬‬
‫) () ( = )} ‪P(X = ۲) = P({HT‬‬
‫‪۳ ۳‬‬
‫‪۲ ۱‬‬
‫) ( ‪P(X = ۳) = ( )۲‬‬
‫‪۳ ۳‬‬
‫‪۲ ۱‬‬
‫) ( ‪P(X = ۴) = ( )۳‬‬
‫‪۳ ۳‬‬
‫‪..‬‬
‫‪.‬‬
‫‪۲‬‬ ‫‪۱‬‬
‫) ( ‪P(X = k) = ( )k−۱‬‬
‫‪۳‬‬ ‫‪۳‬‬

‫‪١۶‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪۱‬‬ ‫‪۲ ۱‬‬ ‫‪۲ ۱‬‬ ‫‪۸‬‬
‫( ‪P(X ≥ ۴) = ۱ − P(X < ۴) = ۱ − P(X ≤ ۳) = ۱ −‬‬ ‫= )) ( ‪+ ( )( ) + ( )۲‬‬
‫‪۳‬‬ ‫‪۳ ۳‬‬ ‫‪۳ ۳‬‬ ‫‪۲۷‬‬
‫‪or‬‬
‫‪= P(X = ۴) + P(X = ۵) + P(X = ۶) + . . .‬‬
‫‪۲‬‬ ‫‪۱‬‬ ‫‪۲‬‬ ‫‪۱‬‬ ‫‪۲‬‬ ‫‪۱‬‬
‫‪= ( )۳ ( ) + ( )۴ ( ) + ( )۵ ( ) + . . .‬‬
‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬
‫‪∑ ۲ ۱‬‬
‫∞‬
‫=‬ ‫) ( ‪( )i‬‬
‫‪i=۳‬‬
‫‪۳ ۳‬‬
‫‪( ۱۳ )( ۲۳ )۳‬‬ ‫‪۲‬‬ ‫‪۸‬‬
‫=‬ ‫= ‪= ( )۳‬‬
‫‪۱− ۳‬‬ ‫‪۲‬‬ ‫‪۳‬‬ ‫‪۲۷‬‬

‫‪ ١.٢‬اﻧﻮاع ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬


‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﯽ داﻧﯿﻢ‪X : S −→ SX ⊆ R :‬‬

‫• اﮔ ﺮ ‪ SX‬ﯾ ﮏ ﻣﺠﻤﻮﻋﻪ ﺷﻤﺎرا ﺑﺎﺷﺪ‪ X ،‬را ﯾ ﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘ ﻪ ﮔ ﻮﯾﻨ ﺪ‪ .‬در واﻗﻊ ﺑﺮای ﯾ ﮏ ﻣﺘﻐﯿﺮ‬
‫ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ‪ SX ،‬ﺑﻪ ﺷﮑﻞ ﯾﮏ ﻣﺠﻤﻮﻋﻪ ﻣﺘﻨﺎھﯽ ﯾﺎ ﻧﺎﻣﺘﻨﺎھﯽ اﺳﺖ‪.‬‬

‫}‪SX = {x۱ , x۲ , x۳ , . . .‬‬

‫• اﮔﺮ ‪ SX‬ﯾﮏ ﻓﺎﺻﻠﻪ ﯾﺎ اﺟﺘﻤﺎع ﭼﻨﺪ ﻓﺎﺻﻠﻪ ﻋﺪدی ﺑﺎﺷﺪ‪ X ،‬را ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﮔﻮﯾﻨﺪ‪ .‬ﯾﻌﻨﯽ‬

‫‪SX = [a, b] ⊆ R‬‬

‫⋆ ﺗﻮﺟﻪ داﺷﺘﻪ ﺑﺎﺷﯿﺪ ﮐﻪ ﺑﺮای ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ‪ X‬اﺣﺘﻤﺎل در ﯾﮏ ﻧﻘﻄﻪ ﺑﺮاﺑﺮ ﺑﺎ ﺻﻔﺮ اﺳﺖ‪ .‬درواﻗﻊ‬
‫دارﯾﻢ‬
‫‪P(X = x) = ۰‬‬ ‫‪x∈R‬‬

‫‪١٧‬‬
‫‪ ١.١.٢‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﮔﺴﺴﺘﻪ ﮔﻮﯾﻨﺪ ھﺮﮔﺎه ‪ SX‬ﻣﺠﻤﻮﻋﻪ ای ﺷﻤﺎرا ﺑﺎﺷﺪ‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٣-٢‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )ﺗﺎﺑﻊ اﺣﺘﻤﺎل( ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪ X‬ﻣﯿﺰان اﺣﺘﻤﺎل اﻧﺒﺎﺷﺘﻪ ﺷﺪه در ھﺮ‬
‫ﻧﻘﻄﻪ را ﻧﺸﺎن ﻣﯽ دھﺪ ﮐﻪ ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‬

‫)‪fX (x) = P(X = x‬‬

‫و دارای ﺧﻮاص زﯾﺮ اﺳﺖ‪:‬‬

‫‪ .١‬ﺑﺮای ھﺮ ‪fX (x) ≥ ۰ ،x ∈ R‬‬


‫∑‬
‫‪.‬‬ ‫‪x∈R‬‬
‫‪fX (x) = ۱ .٢‬‬

‫ﻣﺜﺎل ‪ .۴-٢‬دو ﺗﺎس را ﺑﺎھﻢ ﭘﺮﺗﺎب ﻣﯽ ﮐﻨﯿﻢ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﺑﺮاﺑﺮ ﺑﺎ ﻣﺠﻤﻮع اﻋﺪاد ﻣﺸﺎھﺪه ﺷﺪه روی‬
‫دو ﺗﺎس ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ‪ X‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬دارﯾﻢ‬
‫}‪SX = {۲, ۳, ۴, . . . , ۱۲‬‬

‫و ھﻤﭽﻨﯿﻦ‬
‫‪۱‬‬
‫= )}‪P(X = ۲) = P({۱, ۱‬‬
‫‪۳۶‬‬
‫‪۲‬‬
‫= )}‪P(X = ۳) = P({۱, ۲}, {۲, ۱‬‬
‫‪۳۶‬‬
‫‪۳‬‬
‫= )}‪P(X = ۴) = P({۱, ۳}, {۳, ۱}, {۲, ۲‬‬
‫‪۳۶‬‬
‫‪..‬‬
‫‪.‬‬

‫‪x‬‬ ‫‪٢‬‬ ‫‪٣‬‬ ‫‪۴‬‬ ‫‪۵‬‬ ‫‪۶‬‬ ‫‪٧‬‬ ‫‪٨‬‬ ‫‪٩‬‬ ‫‪١٠ ١١ ١٢‬‬
‫‪۱‬‬ ‫‪۲‬‬ ‫‪۳‬‬ ‫‪۴‬‬ ‫‪۵‬‬ ‫‪۶‬‬ ‫‪۵‬‬ ‫‪۴‬‬ ‫‪۳‬‬ ‫‪۲‬‬ ‫‪۱‬‬
‫)‪fX (x) = P(X = x‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬

‫‪١٨‬‬
‫ﻣﺜﺎل ‪ .۵-٢‬ﺗﺎﺑﻊ زﯾﺮ را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬
‫‪۱‬‬
‫‪fX (x) = P(X = x) = k( )x‬‬ ‫‪x = ۰, ۱, ۲, . . .‬‬
‫‪۶‬‬
‫ﻣﻘﺪار ‪ k‬را ﭼﻨﺎن ﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ ﮐﻪ )‪ fX (x‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪ X‬ﺑﺎﺷﺪ‪.‬‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺧﻮاص ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل‪ k ≥ ۰ ،‬و‬
‫∑‬
‫∞‬ ‫∑‬
‫∞‬
‫‪۱‬‬ ‫∑‬
‫∞‬
‫‪۱‬‬ ‫‪۱‬‬ ‫‪۶‬‬
‫=‪۱‬‬ ‫= )‪fX (x‬‬ ‫‪k( )x = k‬‬ ‫(‪( )x = k‬‬ ‫‪) = k( ).‬‬
‫‪x=۰‬‬ ‫‪x=۰‬‬
‫‪۶‬‬ ‫‪x=۰‬‬
‫‪۶‬‬ ‫‪۱−‬‬ ‫‪۱‬‬
‫‪۶‬‬
‫‪۵‬‬

‫= ‪.k‬‬ ‫‪۵‬‬
‫‪۶‬‬ ‫ﺑﻨﺎﺑﺮاﯾﻦ‬

‫ﺗﻌﺮﯾﻒ ‪ .۶-٢‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﻣﯿﺰان اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺷﺪه ﺗﺎ ﻧﻘﻄﻪ ‪ x‬را ﻧﺸﺎن ﻣﯽ دھﺪ ﮐﻪ ﺑﻪ‬
‫ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‬
‫)‪FX (x) = P(X ≤ x‬‬ ‫‪x∈R‬‬

‫اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ‪ ،‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )‪ FX (x‬ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‬
‫∑‬ ‫∑‬
‫= )‪FX (x) = P(X ≤ x‬‬ ‫= )‪P(X = t‬‬ ‫)‪fX (t‬‬
‫‪t≤x‬‬ ‫‪t≤x‬‬

‫ﻣﺜﺎل ‪ .٧-٢‬ﺳﮑﻪ ای را ‪ ۴‬ﻣﺮﺗﺒﻪ ﭘﺮﺗﺎب ﻣﯽ ﮐﻨﯿﻢ‪ .‬اﮔﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﻧﺸﺎﻧﮕﺮ ﺗﻌﺪاد ﺷﯿﺮھﺎی ﻣﺸﺎھﺪه ﺷﺪه‬
‫ﺑﺎﺷﺪ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل و ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﺑﯿﺎﺑﯿﺪ‪.‬‬

‫}‪SX = {۰, ۱, ۲, ۳, ۴‬‬


‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪P({T T T T }) = ۱۶‬‬
‫‪۱‬‬
‫‪if‬‬ ‫‪x=۰‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪۴‬‬
‫‪P({HT T T, T HT T, T T HT, T T T H}) = ۱۶‬‬ ‫‪if x = ۱‬‬
‫‪‬‬
‫‪۶‬‬
‫= )}‪fX (x) = P(X = x) = P({HHT T, HT HT, HT T H, T HHT, T HT H, T T HH‬‬ ‫‪if x = ۲‬‬
‫‪‬‬
‫‪‬‬
‫‪۱۶‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪P({HHHT, HHT H, HT HH, T HHH}) = ۱۶‬‬ ‫‪۴‬‬
‫‪if x = ۳‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۱‬‬
‫‪P({HHHH}) = ۱۶‬‬ ‫‪if x = ۴‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰‬‬ ‫‪if x < ۰‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰ + ۱۶‬‬‫‪۱‬‬ ‫‪۱‬‬
‫‪= ۱۶‬‬ ‫‪if ۰ ≤ x < ۱‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪۰ + ۱ + ۴ = ۵‬‬
‫‪۱۶‬‬ ‫‪۱۶‬‬ ‫‪۱۶‬‬ ‫‪if ۱ ≤ x < ۲‬‬
‫= )‪FX (x) = P(X ≤ x‬‬
‫‪‬‬
‫‪‬‬ ‫‪۱‬‬ ‫‪۴‬‬ ‫‪۶‬‬ ‫‪۱۱‬‬
‫‪if ۲ ≤ x < ۳‬‬
‫‪ ۰ + ۱۶ + ۱۶ + ۱۶ = ۱۶‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰ + ۱۶‬‬‫‪۱‬‬ ‫‪۴‬‬
‫‪+ ۱۶‬‬ ‫‪۶‬‬
‫‪+ ۱۶‬‬ ‫‪۴‬‬
‫‪+ ۱۶‬‬ ‫‪= ۱۱‬‬ ‫‪if ۳ ≤ x < ۴‬‬
‫‪‬‬
‫‪‬‬ ‫‪۱۶‬‬
‫‪‬‬
‫‪‬‬ ‫‪۱‬‬
‫‪۰ + ۱۶‬‬ ‫‪۴‬‬
‫‪+ ۱۶‬‬ ‫‪۶‬‬
‫‪+ ۱۶‬‬ ‫‪۴‬‬
‫‪+ ۱۶‬‬ ‫‪۱‬‬
‫‪+ ۱۶‬‬ ‫‪= ۱ if ۴ ≤ x‬‬

‫‪١٩‬‬
‫ﻧﻤﻮدار ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ‪ X‬در ﻣﺜﺎل ‪٧-٢‬‬ ‫ﺷﮑﻞ ‪:١-٢‬‬

‫ﻧﻤﻮدار ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ‪ X‬در ﻣﺜﺎل ‪٧-٢‬‬ ‫ﺷﮑﻞ ‪:٢-٢‬‬

‫ﻧ ﻤ ﻮدار ﺗ ﻮاﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ و ﺗ ﻮزﯾ ﻊ ﺑ ﻪ دﺳ ﺖ آﻣ ﺪه ﺑ ﻪ ﺗ ﺮﺗ ﯿ ﺐ در ﺷ ﮑ ﻞ ‪ ١-٢‬و ‪ ٢-٢‬رﺳ ﻢ ﺷ ﺪه اﺳ ﺖ‪ .‬ھ ﻤ ﺎن ﻃ ﻮر ﮐ ﻪ‬


‫ﻣﺸﺎھﺪه ﻣﯽ ﺷﻮد‪ ،‬ﻧﻤﻮدار ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪ X‬ﺑﻪ ﺷﮑﻞ ﭘﻠﻪ ای اﺳﺖ‪.‬‬

‫ﺧﻮاص ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل‬

‫‪۰ ≤ FX (x) ≤ ۱‬‬ ‫‪∀x ∈ R .١‬‬

‫‪ FX (x) .٢‬ﯾﮏ ﺗﺎﺑﻊ ﻏﯿﺮ ﻧﺰوﻟﯽ اﺳﺖ‪.‬‬

‫‪ FX (x) .٣‬ﯾﮏ ﺗﺎﺑﻊ از راﺳﺖ ﭘﯿﻮﺳﺘﻪ اﺳﺖ‪.‬‬

‫‪ FX (−∞) = ۰ .۴‬و ‪FX (+∞) = ۱‬‬

‫‪٢٠‬‬
‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪ X‬را ﻣﯽ ﺗﻮان ﺑﺎ اﺳﺘﻔﺎده از ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﺑﻪ ﺷﮑﻞ زﯾﺮ ﺑﻪ دﺳﺖ آورد‬

‫)‪fX (x) = P(X = x) = P(X ≤ x) − P(X < x‬‬

‫) ‪= FX (x) − FX (x−‬‬

‫ﮐﻪ در آن )‪ FX (x‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ‪ X‬در ﻧﻘﻄﻪ ‪ x‬اﺳﺖ و اﺣﺘﻤﺎل ﺗﺎ ﻧﻘﻄﻪ ‪ x‬را ﻧﺸﺎن ﻣﯽ دھﺪ‬
‫و ) ‪ FX (x−‬اﺣﺘﻤﺎل ﺗﺎ ﻗﺒﻞ از ﻧﻘﻄﻪ ‪ x‬اﺳﺖ‪.‬‬

‫‪٢١‬‬
‫ﻧﻤﺎﯾﺶ ﯾﮏ واﺣﺪ ﺟﺮم اﺣﺘﻤﺎل ﺑﺮ روی ﺗﮑﯿﻪ ﮔﺎه ‪SX = [a, b] ،X‬‬ ‫ﺷﮑﻞ ‪:٣-٢‬‬

‫‪ ٢.١.٢‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ‬


‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﭘﯿﻮﺳﺘﻪ ﮔﻮﯾﻨﺪ ھﺮﮔﺎه ‪ SX‬ﯾﮏ ﻓﺎﺻﻠﻪ ﯾﺎ اﺟﺘﻤﺎع ﭼﻨﺪ ﻓﺎﺻﻠﻪ ﻋﺪدی ﺑﺎﺷﺪ‪.‬‬

‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .٨-٢‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﯾ ﮏ واﺣ ﺪ ﺟ ﺮم اﺣ ﺘ ﻤ ﺎل ﺑ ﺮ روی ﺗ ﮑ ﯿ ﻪ ﮔ ﺎه ‪ SX = [a, b] ،X‬ﺑ ﻪ ﺻ ﻮرت ﺷ ﮑ ﻞ ‪٣-٢‬‬


‫اﻧﺒﺎﺷﺘﻪ ﺷﺪه اﺳﺖ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪ ،fX (x‬ﺗﺎﺑﻌﯽ اﺳﺖ ﮐﻪ ﺑﻪ ﯾﮏ واﺣﺪ ﺟﺮم اﺣﺘﻤﺎل در ﺗﮑﯿﻪ ﮔﺎه ﺑﺮازش‬
‫داده ﻣﯽ ﺷﻮد و ﻣﺴﺎﺣﺖ زﯾﺮ ﺗﺎﺑﻊ در ﻓﺎﺻﻠﻪ ]‪ [a, b‬ﺑﺮاﺑﺮ ﺑﺎ ‪ ۱‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ دارﯾﻢ‬
‫∫‬
‫‪fX (x)dx = ۱‬‬
‫‪SX‬‬

‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ )‪ fX (x‬دارای ﺧﻮاص زﯾﺮ اﺳﺖ‬

‫‪fX (x) ≥ ۰‬‬ ‫‪∀x ∈ R .١‬‬


‫∞‪∫ +‬‬
‫‪.‬‬ ‫∞‪−‬‬
‫‪fX (x)dx = ۱ .٢‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٩-٢‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ‪ X‬در ﻧﻘﻄﻪ ‪ x‬ﻣﯿﺰان اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺷﺪه ﺗﺎ اﯾﻦ ﻧﻘﻄﻪ‬
‫اﺳﺖ و ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﺷﻮد‬
‫∫‬ ‫‪x‬‬
‫= )‪FX (x) = P(X ≤ x‬‬ ‫‪fX (t)dt‬‬ ‫‪∀x ∈ R‬‬
‫∞‪−‬‬

‫اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ‪ ،‬ﻣﯽ ﺗﻮان ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ آن را ﺑﻪ روش زﯾﺮ ﺑﺪﺳﺖ آورد‬

‫‪d‬‬
‫= )‪fX (x‬‬ ‫)‪FX (x) = FX′ (x‬‬
‫‪dx‬‬

‫‪٢٢‬‬
‫ﻧﻤﻮدارھﺎی ﻣﺜﺎل ‪١٠-٢‬‬ ‫ﺷﮑﻞ ‪:۴-٢‬‬

‫ﻣﺜﺎل ‪ .١٠-٢‬ﻧﻘﻄﻪ ای را ﺑﻪ ﺗﺼﺎدف از ﻓﺎﺻﻠﻪ اﻋﺪاد ﺣﻘﯿﻘﯽ ]‪ [۰, ۲‬اﻧﺘﺨﺎب ﮐﺮده و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﺑﺮاﺑﺮ ﺑﺎ‬
‫ﻧﻘﻄﻪ اﻧﺘﺨﺎب ﺷﺪه در ﻓﺎﺻﻠﻪ ]‪ [۰, ۲‬در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل و ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل را ﺑﺪﺳﺖ آورده و‬
‫ﺳﭙﺲ اﯾﻦ دو ﺗﺎﺑﻊ را رﺳﻢ ﮐﻨﯿﺪ‪.‬‬
‫ﭼﻮن ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ اﺳﺖ و ]‪ ،SX = [۰, ۲‬ﭘﺲ )‪ P(X ≤ x‬ﺑﺮاﺑﺮ ﺑﺎ ﻧﺴﺒﺖ ﻃﻮل ﻓﺎﺻﻠﻪ‬
‫]‪ [۰, x‬ﺑﺮ ﻃﻮل ﻓﺎﺻﻠﻪ ]‪ [۰, ۲‬اﺳﺖ و دارﯾﻢ‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰‬‬ ‫‪x<۰‬‬
‫‪‬‬
‫‪‬‬
‫‪if‬‬
‫= )‪FX (x) = P(X ≤ x‬‬ ‫‪x‬‬
‫‪if‬‬ ‫‪۰≤x<۲‬‬
‫‪‬‬
‫‪‬‬
‫‪۲‬‬
‫‪‬‬
‫‪۱‬‬ ‫‪x≥۲‬‬
‫‪‬‬
‫= )‪ F ′ (x‬‬ ‫‪۱‬‬
‫‪if‬‬ ‫‪۰<x<۲‬‬
‫‪X‬‬ ‫‪۲‬‬
‫= )‪fX (x‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫⋆ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ‪ ،‬ﯾﮏ ﻧﻤﻮدار ﭘﯿﻮﺳﺘﻪ اﺳﺖ‪.‬‬

‫‪٢٣‬‬
‫ﻣﺜﺎل ‪ .١١-٢‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل زﯾﺮ ﺑﺎﺷﺪ‬
‫‪‬‬
‫‪‬‬ ‫‪c‬‬
‫‪if‬‬ ‫‪۱ < x < ۱۰‬‬
‫‪x۲‬‬
‫= )‪fX (x‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫‪ .i‬ﻣﻘﺪار ‪ c‬را ﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ‪.‬‬

‫‪ .ii‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪ .i‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺧﻮاص ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺑﺎﯾﺪ ‪،c ≥ ۰‬‬


‫∫‬ ‫∞‬ ‫∫‬ ‫‪۱‬‬ ‫∫‬ ‫‪۱۰‬‬ ‫∫‬ ‫∞‬ ‫∫‬ ‫‪۱۰‬‬
‫‪c‬‬ ‫‪۱‬‬ ‫‪−c ۱۰‬‬ ‫‪۹‬‬
‫=‪۱‬‬ ‫= ‪fX (x)dx‬‬ ‫‪۰dx +‬‬ ‫‪dx +‬‬ ‫‪۰dx = c‬‬ ‫= ‪dx‬‬ ‫= ‪|۱‬‬ ‫‪c‬‬
‫∞‪−‬‬ ‫∞‪−‬‬ ‫‪۱‬‬ ‫‪x۲‬‬ ‫‪۱۰‬‬ ‫‪۱‬‬ ‫‪x۲‬‬ ‫‪x‬‬ ‫‪۱۰‬‬

‫= ‪.c‬‬ ‫‪۱۰‬‬
‫‪۹‬‬ ‫ﭘﺲ‬
‫‪‬‬
‫‪‬‬ ‫‪۱۰‬‬
‫‪if‬‬ ‫‪۱ < x < ۱۰‬‬
‫= )‪ fX (x‬ﭘﺲ دارﯾﻢ‬ ‫‪۹x۲‬‬
‫‪ .ii‬ﭼﻮن‬
‫‪ ۰‬‬ ‫‪o.w‬‬
‫∫‬ ‫‪x‬‬
‫= )‪FX (x) = P(X ≤ x‬‬ ‫‪fX (t)dt‬‬
‫∞‪−‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰‬‬ ‫‪x<۱‬‬
‫‪‬‬
‫∫‪‬‬
‫‪if‬‬
‫‪۱‬‬ ‫‪∫x‬‬ ‫‪∫ x ۱۰‬‬
‫‪۱ ۹t۲ dt = ۹ − ۹x‬‬ ‫‪۱ ≤ x < ۱۰‬‬
‫=‬ ‫‪۱۰‬‬ ‫‪۱۰‬‬
‫‪f‬‬ ‫‪(t)dt‬‬ ‫‪+‬‬ ‫‪f‬‬ ‫‪(t)dt‬‬ ‫=‬ ‫‪if‬‬
‫‪‬‬
‫‪‬‬
‫∞‪−‬‬
‫‪∫۱‬‬
‫‪X‬‬ ‫‪۱‬‬ ‫‪X‬‬
‫‪∫ ۱۰‬‬ ‫∞∫‬
‫‪‬‬
‫‪‬‬
‫∞‪−‬‬
‫‪f‬‬ ‫‪X‬‬ ‫‪(t)dt‬‬ ‫‪+‬‬ ‫‪۱‬‬ ‫‪f‬‬ ‫‪X‬‬ ‫‪(t)dt‬‬ ‫‪+‬‬ ‫‪۱۰ fX (t)dt = ۱‬‬ ‫‪if x ≥ ۱۰‬‬

‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪(X, Y‬‬ ‫‪٢.٢‬‬

‫ﻣﻔﻬﻮم و ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪(X, Y‬‬ ‫‪١.٢.٢‬‬


‫ﮔﺎھﯽ ﻋﻼﻗﻤﻨﺪ ﺑﻪ ﺑﺮرﺳﯽ دو ﭘﯿﺸﺎﻣﺪ ﺑﻪ ﻃﻮر ھﻤﺰﻣﺎن در ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ھﺴﺘﯿﻢ‪ .‬ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ اﮔﺮ دو‬
‫ﭘﯿ ﺸﺎﻣﺪ را ﺑﺮ روی ﯾ ﮏ آزﻣﺎﯾ ﺶ ﺗﺼﺎدﻓ ﯽ ﺗﻌ ﺮﯾ ﻒ ﮐﻨﯿﻢ‪ ،‬ﻣﯽ ﺗﻮان آن ھﺎ را ﺑﻪ ﺻ ﻮرت ﺗﮑﯽ ﯾﺎ ﺗﻮام ﻣ ﻮرد ﺑﺮرﺳﯽ‬
‫ﻗﺮار داد‪.‬‬

‫• ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ : X‬ﭘﯿﺸﺎﻣﺪ ‪A‬‬

‫• ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ : Y‬ﭘﯿﺸﺎﻣﺪ ‪B‬‬

‫‪٢۴‬‬
‫• ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ) ‪ : (X, Y‬ﭘﯿﺸﺎﻣﺪ ‪A ∩ B‬‬

‫در واﻗﻊ ﭘﯿﺸﺎﻣﺪھﺎی ‪ A‬و ‪ B‬را ﺑﺎ ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬ﺑﺮرﺳﯽ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﺑﺮای ﺑﺮرﺳﯽ ﭘﯿﺸﺎﻣﺪ‬
‫‪) A ∩ B‬وﻗ ﻮع ھﻤﺰﻣ ﺎن دو ﭘﯿ ﺸ ﺎﻣ ﺪ ‪ A‬و ‪ (B‬ﺑﺎﯾ ﺪ ﻣ ﺘﻐ ﯿﺮھﺎی ﺗﺼ ﺎدﻓ ﯽ ‪ X‬و ‪ Y‬ﺑ ﻪ ﻃ ﻮر ﺗ ﻮام ﻣ ﻮرد ﺑﺮرﺳ ﯽ ﻗ ﺮار‬
‫ﮔﯿﺮد و اﯾﻦ اﻣﺮ ﺳﺒﺐ ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪ (X, Y‬ﻣﯽ ﮔﺮدد‪:‬‬

‫‪(X, Y ) : S −→ SX,Y ⊆ R۲‬‬

‫اﮔﺮ ‪ SX‬و ‪ SY‬ﻣﺠﻤﻮﻋﻪ ھﺎی ﺷﻤﺎرا ﺑﺎﺷﻨﺪ‪ (X, Y ) ،‬را ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻮام ﮔﺴﺴﺘﻪ ﮔﻮﯾﻨﺪ‪.‬‬
‫اﮔﺮ ‪ SX‬و ‪ SY‬ھﺮﮐﺪام ﯾﮏ ﻓﺎﺻﻠﻪ ﯾﺎ اﺟﺘﻤﺎع ﭼﻨﺪ ﻓﺎﺻﻠﻪ ﻋﺪدی ﺑﺎﺷﻨﺪ‪ (X, Y ) ،‬را ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻮام‬
‫ﭘﯿﻮﺳﺘﻪ ﮔﻮﯾﻨﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .١٢-٢‬ﻓﺮض ﮐﻨﯿﺪ ﺳﮑﻪ ای را ‪ ٣‬ﻣﺮﺗﺒﻪ ﭘﺮﺗﺎب ﮐﻨﯿﻢ و ﻗﺮار دھﯿﻢ‬

‫• ‪ : X‬ﺗﻌﺪاد ﺷﯿﺮھﺎی ﻣﺸﺎھﺪه ﺷﺪه در ‪ ٣‬ﭘﺮﺗﺎب }‪SX = {۰, ۱, ۲, ۳‬‬

‫• ‪ : Y‬ﺗﻌﺪاد ﺷﯿﺮھﺎی ﻣﺸﺎھﺪه ﺷﺪه در ﭘﺮﺗﺎب ﺳﻮم }‪SY = {۰, ۱‬‬

‫ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل و ﺗ ﺎﺑ ﻊ ﺗ ﻮزﯾ ﻊ اﺣ ﺘ ﻤ ﺎل ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬و ‪ ،Y‬اﻃ ﻼﻋ ﺎﺗ ﯽ درﺑ ﺎره اﯾ ﻦ دو ﻣ ﺘ ﻐ ﯿ ﺮ و‬


‫ﭘﯿﺸﺎﻣﺪھﺎی ﻧﻈﯿﺮ آن ھﺎ را ﺑﻪ ﻣﺎ ﻣﯽ دھﺪ‪ .‬اﻣﺎ واﺿﺢ اﺳﺖ ﮐﻪ وﻗﻮع ھﺮ ﯾﮏ از اﯾﻦ ﭘﯿﺸﺎﻣﺪھﺎ در دﯾﮕﺮی ﺗﺎﺛﯿﺮ‬
‫ﻣﯽ ﮔﺬارد و ﺑﻨﺎﺑﺮاﯾﻦ ﻧﯿﺎز ﺑﻪ داﻧﺴﺘﻦ اﻃﻼﻋﺎﺗﯽ در ﻣﻮرد وﻗﻮع ھﻤﺰﻣﺎن اﯾﻦ دو ﭘﯿﺸﺎﻣﺪ دارﯾﻢ‪ .‬در اﯾﻦ ﺟﺎ ﻓﻀﺎی‬
‫ﻧﻤﻮﻧﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪ (X, Y‬ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ‬

‫‪SX,Y = {(۰, ۰), (۰, ۱), (۱, ۰), (۱, ۱), (۲, ۰), (۲, ۱), (۳, ۰), (۳, ۱)}.‬‬

‫ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ﮔﺴﺴﺘﻪ‬

‫ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪ (X, Y‬را ﮔﺴﺴﺘﻪ ﮔﻮﯾﻨﺪ ھﺮﮔﺎه ‪ SX‬و ‪ SY‬ﻣﺠﻤﻮﻋﻪ ھﺎی ﺷﻤﺎرا ﺑﺎﺷﻨﺪ‪.‬‬

‫‪(X, Y ) : S −→ SX,Y ⊆ R۲‬‬ ‫)‪(١-٢‬‬

‫ﺷﺎﯾﺎن ذﮐﺮ اﺳﺖ ﮐﻪ در اﯾﻦ ﺣﺎﻟﺖ ‪ ،SX,Y‬ﻣﺠﻤﻮﻋﻪ ای از ﻧﻘﺎط در ﻓﻀﺎی ‪ R۲‬اﺳﺖ و ھﺮ ﻧﻘﻄﻪ ﺑﺎ دو ﻣﺨﺘﺼﺎت‬
‫‪ X‬و ‪ Y‬ﻧﻤﺎﯾﺶ داده ﻣﯽ ﺷﻮد‪ .‬ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ دارﯾﻢ‬

‫}‪SX,Y = {(x۱ , y۱ ), (x۲ , y۲ ), (x۳ , y۳ ), . . .‬‬

‫‪٢۵‬‬
‫ﺗﻌﺮﯾﻒ ‪ .١٣-٢‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ) ‪ ،(X, Y‬ﻣﯿﺰان اﺣﺘﻤﺎل اﻧﺒﺎﺷﺘﻪ در ھﺮ ﻧﻘﻄﻪ‬
‫)‪ (x, y‬را ﻧﺸﺎن ﻣﯽ دھﺪ و ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﮔﺮدد‬

‫)‪fX,Y (x, y) = P(X = x, Y = y‬‬

‫ﮐﻪ دارای ﺧﻮاص زﯾﺮ اﺳﺖ‪:‬‬

‫‪ .١‬ﺑﺮای ھﺮ ‪fX,Y (x, y) ≥ ۰ ،x, y ∈ R‬‬


‫∑ ∑‬
‫‪.‬‬ ‫‪x‬‬ ‫‪y‬‬ ‫‪fX,Y (x, y) = ۱ .٢‬‬

‫ﻣﺜﺎل ‪ .١۴-٢‬از داﺧﻞ ﺟﻌﺒﻪ ای ﮐﻪ ﺷﺎﻣﻞ ‪ ٣‬ﺗﻮپ آﺑﯽ‪ ٢ ،‬ﺗﻮپ ﻗﺮﻣﺰ و ‪ ۴‬ﺗﻮپ ﺳﺒﺰ اﺳﺖ‪ ،‬دو ﺗﻮپ را اﻧﺘﺨﺎب‬
‫ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﺗﻌﺪاد ﺗﻮپ ھﺎی آﺑﯽ ﻣﺸﺎھﺪه ﺷﺪه و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ Y‬را ﺗﻌﺪاد ﺗﻮپ ھﺎی ﻗﺮﻣﺰ‬
‫ﻣﺸﺎھﺪه ﺷﺪه ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪.‬‬

‫‪ .i‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ) ‪ (X, Y‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪ .ii‬ﻣﻘﺪار )‪ P(X + Y ≤ ۱‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬

‫‪ .i‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ﮔﺴﺴﺘﻪ‪.(X, Y ) :‬‬


‫دارﯾﻢ‪.SY = {۰, ۱, ۲} ،SX = {۰, ۱, ۲} :‬‬
‫‪   ‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۴‬‬
‫‪   ‬‬
‫‪۰‬‬ ‫‪۰‬‬ ‫‪۲‬‬ ‫‪۶‬‬
‫= )‪fX,Y (۰, ۰) = P(X = ۰, Y = ۰‬‬ ‫‪ ‬‬ ‫=‬
‫‪۹‬‬ ‫‪۳۶‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪   ‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۴‬‬
‫‪   ‬‬
‫‪۰‬‬ ‫‪۱‬‬ ‫‪۱‬‬ ‫‪۸‬‬
‫= )‪fX,Y (۰, ۱) = P(X = ۰, Y = ۱‬‬ ‫‪ ‬‬ ‫=‬
‫‪۹‬‬ ‫‪۳۶‬‬
‫‪ ‬‬
‫‪۲‬‬

‫و ﺑﻪ ھﻤﯿﻦ ﺗﺮﺗﯿﺐ اداﻣﻪ ﻣﯽ دھﯿﻢ‪ .‬ﺑﺎ ﻣﺤﺎﺳﺒﻪ اﺣﺘﻤﺎﻻت در ﺗﻤﺎم ﻧﻘﺎط دارﯾﻢ‪،‬‬

‫‪٢۶‬‬
‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬
‫‪y‬‬
‫‪۶‬‬ ‫‪۱۲‬‬ ‫‪۳‬‬
‫‪۰‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۸‬‬ ‫‪۶‬‬
‫‪۱‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬
‫‪۱‬‬
‫‪۲‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬ ‫‪۰‬‬

‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ) ‪ (X, Y‬را ﻣﯽ ﺗﻮان در اﯾﻦ ﻣﺜﺎل ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﯿﺰ ﻧﻮﺷﺖ‬
‫‪  ‬‬ ‫‪‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۴‬‬
‫‪  ‬‬ ‫‪‬‬
‫‪x‬‬ ‫‪y‬‬ ‫‪۲−x−y‬‬
‫= )‪fX,Y (x, y) = P(X = x, Y = y‬‬ ‫‪ ‬‬ ‫‪x, y = ۰, ۱, ۲ and x+y ≤ ۲.‬‬
‫‪۹‬‬
‫‪ ‬‬
‫‪۲‬‬

‫‪.ii‬‬

‫)‪P(X + Y ≤ ۱) = P(X = ۰, Y = ۰) + P(X = ۰, Y = ۱) + P(X = ۱, Y = ۰‬‬

‫)‪= fX,Y (۰, ۰) + fX,Y (۰, ۱) + fX,Y (۱, ۰‬‬


‫‪۶‬‬ ‫‪۸‬‬ ‫‪۱۲ ۲۶‬‬
‫=‬ ‫‪+‬‬ ‫‪+‬‬ ‫=‬
‫‪۳۶ ۳۶ ۳۶ ۳۶‬‬

‫ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ﭘﯿﻮﺳﺘﻪ‬

‫ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪ (X, Y‬را ﭘﯿﻮﺳﺘﻪ ﮔﻮﯾﻨﺪ ھﺮﮔﺎه ‪ SX‬و ‪ SY‬ﯾﮏ ﻓﺎﺻﻠﻪ ﯾﺎ ﻣﺠﻤﻮﻋﻪ ای از ﭼﻨﺪ ﻓﺎﺻﻠﻪ‬
‫ﻋﺪدی ﺑﺎﺷﻨﺪ‪.‬‬
‫‪(X, Y ) : S −→ SX,Y ⊆ R۲‬‬

‫ﺗﻌﺮﯾﻒ ‪ .١۵-٢‬ﺗﺎﺑﻊ )‪ fX,Y (x, y‬را ﯾﮏ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ‪ X‬و ‪ Y‬ﮔﻮﯾﻨﺪ‬
‫ھﺮﮔﺎه‬

‫‪ .١‬ﺑﺮای ھﺮ ‪fX,Y (x, y) ≥ ۰ ،x, y ∈ R‬‬


‫∞∫ ∞∫‬
‫‪.‬‬ ‫∞‪−‬‬ ‫∞‪−‬‬
‫‪fX,Y (x, y) dx dy = ۱ .٢‬‬

‫‪٢٧‬‬
‫ﻣﺜﺎل ‪ .١۶-٢‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺗﻮام ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ) ‪ (X, Y‬را ﺑﻪ ﺻﻮرت زﯾﺮ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬
‫‪‬‬
‫‪cx(۱ + ۲y) if ۰ < x < ۳ , ۰ < y < ۱‬‬
‫= )‪fX,Y (x, y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫‪ .i‬ﻣﻘﺪار ‪ c‬را ﺗﻌﯿﯿﻦ ﮐﻨﯿﺪ‪.‬‬

‫‪ .ii‬ﻣﻘﺪار )‪ P(۱ < X < ۲, ۰ < Y < ۰٫ ۵‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬

‫‪ .i‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺧﻮاص ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ﺑﺎﯾﺪ ‪ c ≥ ۰‬و ھﻤﭽﻨﯿﻦ‬
‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫=‪۱‬‬ ‫‪fX,Y (x, y)dx dy‬‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫∫‬ ‫‪۱∫ ۳‬‬
‫=‬ ‫‪cx(۱ + ۲y)dx dy‬‬
‫‪۰‬‬ ‫‪۰‬‬
‫‪∫ ۱‬‬ ‫) ‪( ۲‬‬
‫‪x‬‬
‫‪=c‬‬ ‫‪(۱ + ۲y) ( )|۳۰ dy‬‬
‫‪۰‬‬ ‫‪۲‬‬
‫‪∫ ۱‬‬
‫‪۹‬‬
‫) (‪= c‬‬ ‫‪(۱ + ۲y) dy‬‬
‫‪۲ ۰‬‬
‫‪۹‬‬
‫‪= c( )(y + y ۲ )|۱۰‬‬
‫‪۲‬‬
‫‪= ۹c‬‬

‫= ‪.c‬‬ ‫‪۱‬‬
‫‪۹‬‬ ‫ﺑﻨﺎﺑﺮاﯾﻦ‬

‫‪.ii‬‬
‫∫‬ ‫‪۰٫۵ ∫ ۲‬‬
‫= )‪P(۱ < X < ۲, ۰ < Y < ۰٫ ۵‬‬ ‫‪fX,Y (x, y)dx dy‬‬
‫‪۰‬‬ ‫‪۱‬‬
‫∫‬ ‫‪۰٫۵ ∫ ۲‬‬
‫‪x‬‬
‫=‬ ‫‪(۱ + ۲y)dx dy‬‬
‫‪۰‬‬ ‫‪۱‬‬ ‫‪۹‬‬
‫∫‬ ‫‪۰٫۵‬‬ ‫) ‪( ۲‬‬
‫‪۱‬‬ ‫‪x ۲‬‬
‫=‬ ‫)‪(۱ + ۲y‬‬ ‫‪| dy‬‬
‫‪۹ ۰‬‬ ‫‪۲ ۱‬‬
‫∫‬
‫‪۱ ۳ ۰٫۵‬‬
‫) () ( =‬ ‫‪(۱ + ۲y)dy‬‬
‫‪۹ ۲ ۰‬‬
‫‪۱ ۳‬‬
‫‪= ( )( )(y + y ۲ )|۰٫۵‬‬
‫‪۰‬‬
‫‪۹ ۲‬‬
‫‪۱ ۳ ۳‬‬ ‫‪۱‬‬
‫= ) () () ( =‬
‫‪۹ ۲ ۴‬‬ ‫‪۸‬‬
‫‪٢٨‬‬
‫‪ ٢.٢.٢‬ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻻت ﺣﺎﺷﯿﻪ ای )ﮐﻨﺎری(‬
‫ﺑﺎ داﺷﺘﻦ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬ﻣﯽ ﺗﻮان ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ‪ X‬و ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬
‫‪ Y‬را ﻣﺤﺎﺳﺒﻪ ﮐﺮد ﮐﻪ ﺑﻪ آن ھﺎ ﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺣﺎﺷﯿﻪ ای )ﯾﺎ ﮐﻨﺎری( ﮔﻮﯾﻨﺪ‪.‬‬
‫اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺣﺎﺷﯿﻪ ای ‪ X‬و ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل‬
‫ﺣﺎﺷﯿﻪ ای ‪ Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ‪:‬‬
‫∑‬ ‫∑‬
‫= )‪fX (x) = P(X = x‬‬ ‫= )‪fX,Y (x, y‬‬ ‫)‪P(X = x, Y = y‬‬
‫‪y‬‬ ‫‪y‬‬
‫∑‬ ‫∑‬
‫= )‪fY (y) = P(Y = y‬‬ ‫= )‪fX,Y (x, y‬‬ ‫)‪P(X = x, Y = y‬‬
‫‪x‬‬ ‫‪x‬‬

‫و اﮔ ﺮ ‪ X‬و ‪ Y‬ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ﭘ ﯿ ﻮﺳ ﺘ ﻪ ﺑ ﺎﺷ ﻨ ﺪ‪ ،‬ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺣ ﺎﺷ ﯿ ﻪ ای ‪ X‬و ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل‬


‫ﺣﺎﺷﯿﻪ ای ‪ Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﻨﺪ‪:‬‬
‫∫‬ ‫∞‬
‫= )‪fX (x‬‬ ‫‪fX,Y (x, y)dy‬‬
‫∞‪∫−‬‬
‫∞‬
‫= )‪fY (y‬‬ ‫‪fX,Y (x, y)dx‬‬
‫∞‪−‬‬

‫ﻣﺜﺎل ‪ .١٧-٢‬در ﻣﺜﺎل ‪ ،١۴-٢‬ﺗﺎﺑﻊ اﺣﺘﻤﺎل )ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل( ﺣﺎﺷﯿﻪ ای ‪ X‬و ﺗﺎﺑﻊ اﺣﺘﻤﺎل )ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬
‫اﺣﺘﻤﺎل( ‪ Y‬را ﺑﻪ دﺳﺖ آورﯾﺪ‪.‬‬
‫ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ﮔﺴﺴﺘﻪ‪.(X, Y ) :‬‬
‫دارﯾﻢ‪.SY = {۰, ۱, ۲} ،SX = {۰, ۱, ۲} :‬‬

‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬
‫‪y‬‬
‫‪۶‬‬ ‫‪۱۲‬‬ ‫‪۳‬‬
‫‪۰‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۸‬‬ ‫‪۶‬‬
‫‪۱‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬
‫‪۱‬‬
‫‪۲‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬ ‫‪۰‬‬

‫∑‬
‫‪۲‬‬
‫= )‪fX (۰‬‬ ‫)‪fX,Y (۰, y) = fX,Y (۰, ۰) + fX,Y (۰, ۱) + fX,Y (۰, ۲‬‬
‫‪y=۰‬‬
‫‪۶‬‬ ‫‪۸‬‬ ‫‪۱‬‬ ‫‪۱۵‬‬
‫=‬ ‫‪+‬‬ ‫‪+‬‬ ‫=‬ ‫‪,‬‬
‫‪۳۶ ۳۶ ۳۶ ۳۶‬‬

‫‪٢٩‬‬

۲
fX (۱) = fX,Y (۱, y) = fX,Y (۱, ۰) + fX,Y (۱, ۱) + fX,Y (۱, ۲)
y=۰
۱۲ ۶ ۱۸
= + +۰= ,
۳۶ ۳۶ ۳۶


۲
fX (۲) = fX,Y (۲, y) = fX,Y (۲, ۰) + fX,Y (۲, ۱) + fX,Y (۲, ۲)
y=۰
۳ ۳
= +۰+۰= ,
۳۶ ۳۶


۲
fY (۰) = fX,Y (x, ۰) = fX,Y (۰, ۰) + fX,Y (۱, ۰) + fX,Y (۲, ۰)
x=۰
۶ ۱۲ ۳ ۲۱
= + + = ,
۳۶ ۳۶ ۳۶ ۳۶


۲
fY (۱) = fX,Y (x, ۱) = fX,Y (۰, ۱) + fX,Y (۱, ۱) + fX,Y (۲, ۱)
x=۰
۶ ۸ ۱۴
=۰+ + = ,
۳۶ ۳۶ ۳۶


۲
fY (۲) = fX,Y (x, ۰) = fX,Y (۰, ۲) + fX,Y (۱, ۲) + fX,Y (۲, ۲)
x=۰
۱ ۱
=۰+۰+ = .
۳۶ ۳۶
‫ﺑﻨﺎﺑﺮاﯾﻦ‬

x
٠ ١ ٢ fY (y)
y
۶ ۱۲ ۳ ۲۱
۰ ۳۶ ۳۶ ۳۶ ۳۶
۸ ۶ ۱۴
۱ ۳۶ ۳۶ ۰ ۳۶
۱ ۱
۲ ۳۶ ۰ ۰ ۳۶
fX (x) ۱۵
۳۶
۱۸
۳۶
۳
۳۶ ١

٣٠
‫‪ ٣.٢.٢‬ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻻت ﺷﺮﻃﯽ‬
‫در ﻓﺼﻞ اول‪ ،‬اﺣﺘﻤﺎل ﺷﺮﻃﯽ را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﮐﺮدﯾﻢ‬

‫)‪P(A ∩ B‬‬
‫= )‪P(A|B‬‬ ‫‪,‬‬ ‫‪P(B) ̸= ۰‬‬
‫)‪P(B‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ و ﻗﺮار دھﯿﻢ‬

‫)‪A ≡ (X = x‬‬

‫)‪B ≡ (Y = y‬‬

‫در اﯾﻦ ﺻﻮرت‬


‫)‪P(X = x, Y = y‬‬
‫= )‪P(X = x|Y = y‬‬
‫|‬ ‫‪{z‬‬ ‫}‬ ‫)‪P(Y = y‬‬
‫|‬ ‫‪{z‬‬ ‫}‬
‫)‪fX,Y (x, y‬‬
‫)‪fX|Y (x|y‬‬
‫)‪fY (y‬‬

‫ﺑ ﻪ ﺗ ﺎﺑ ﻊ )‪ fX|Y (x|y‬ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺷ ﺮﻃ ﯽ ‪ X‬ﺑ ﻪ ﺷ ﺮط ‪ Y = y‬ﮔ ﻮﯾ ﻨ ﺪ و آن را ﺑ ﻪ ﺻ ﻮرت زﯾ ﺮ‬


‫ﻣﺤﺎﺳﺒﻪ ﻣﯽ ﮐﻨﻨﺪ‪:‬‬
‫)‪fX,Y (x, y‬‬ ‫)‪fX,Y (x, y‬‬
‫= )‪fX|Y (x|y‬‬ ‫∑=‬ ‫‪,‬‬ ‫‪fY (y) ̸= ۰.‬‬
‫)‪fY (y‬‬ ‫)‪x fX,Y (x, y‬‬

‫ﺑﻪ ھﻤﯿﻦ ﺗﺮﺗﯿﺐ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺷﺮﻃﯽ ‪ Y‬ﺑﻪ ﺷﺮط ‪ X = x‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫)‪fX,Y (x, y‬‬ ‫)‪fX,Y (x, y‬‬


‫= )‪fY |X (y|x‬‬ ‫∑=‬ ‫‪,‬‬ ‫‪fX (x) ̸= ۰.‬‬
‫)‪fX (x‬‬ ‫)‪y fX,Y (x, y‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺷﺮﻃﯽ ‪ X‬ﺑﻪ ﺷﺮط ‪ Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ‬
‫ﻣﯽ ﮔﺮدد‪:‬‬
‫)‪fX,Y (x, y‬‬ ‫)‪fX,Y (x, y‬‬
‫= )‪fX|Y (x|y‬‬ ‫∞∫ =‬ ‫‪,‬‬ ‫‪fY (y) ̸= ۰.‬‬
‫)‪fY (y‬‬ ‫‪f (x, y)dx‬‬
‫‪−∞ X,Y‬‬

‫و ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺷﺮﻃﯽ ‪ Y‬ﺑﻪ ﺷﺮط ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫)‪fX,Y (x, y‬‬ ‫)‪fX,Y (x, y‬‬


‫= )‪fY |X (y|x‬‬ ‫∞∫ =‬ ‫‪,‬‬ ‫‪fX (x) ̸= ۰.‬‬
‫)‪fX (x‬‬ ‫‪f (x, y)dy‬‬
‫‪−∞ X,Y‬‬

‫‪٣١‬‬
‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬ ‫)‪fY (y‬‬
‫‪y‬‬
‫‪۶‬‬ ‫‪۱۲‬‬ ‫‪۳‬‬ ‫‪۲۱‬‬
‫‪۰‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۸‬‬ ‫‪۶‬‬ ‫‪۱۴‬‬
‫‪۱‬‬ ‫‪۳۶‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬ ‫‪۳۶‬‬
‫‪۱‬‬ ‫‪۱‬‬
‫‪۲‬‬ ‫‪۳۶‬‬ ‫‪۰‬‬ ‫‪۰‬‬ ‫‪۳۶‬‬
‫)‪fX (x‬‬ ‫‪۱۵‬‬
‫‪۳۶‬‬
‫‪۱۸‬‬
‫‪۳۶‬‬
‫‪۳‬‬
‫‪۳۶‬‬ ‫‪١‬‬

‫ﺟﺪول ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام و ﮐﻨﺎری ﺑﺮای ﻣﺜﺎل ‪١۴-٢‬‬ ‫ﺟﺪول ‪:١.٢‬‬

‫ﻣ ﺜ ﺎل ‪ .١٨-٢‬در ﻣ ﺜ ﺎل ‪ ،١۴-٢‬ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺷ ﺮﻃ ﯽ ‪ X‬ﺑ ﻪ ﺷ ﺮط ‪ Y = ۰‬را ﺑ ﺪﺳ ﺖ آورده و‬


‫)‪ P(X ≤ ۱|Y = ۰‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬
‫ﻃ ﺒ ﻖ ﻣ ﺤ ﺎﺳ ﺒ ﺎت در دو ﻣ ﺜ ﺎل ﻗ ﺒ ﻞ‪ ،‬ﺟ ﺪول ‪ ١.٢‬را دارﯾ ﻢ‪ .‬و ﺑ ﺮ اﺳ ﺎس ﺗ ﻌ ﺮﯾ ﻒ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺷ ﺮﻃ ﯽ‬
‫ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫)‪fX,Y (x, ۰‬‬ ‫)‪fX,Y (x, ۰‬‬


‫= )‪fX|Y (x|۰‬‬ ‫=‬ ‫‪۲۱‬‬
‫‪,‬‬ ‫‪x = ۰, ۱, ۲.‬‬
‫)‪fY (۰‬‬ ‫‪۳۶‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪۶‬‬
‫)‪fX,Y (۰, ۰‬‬ ‫‪۶‬‬
‫= )‪fX|Y (۰|۰‬‬ ‫‪۲۱‬‬
‫=‬ ‫‪۳۶‬‬
‫‪۲۱‬‬
‫=‬
‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۲۱‬‬
‫‪۱۲‬‬
‫)‪fX,Y (۱, ۰‬‬ ‫‪۱۲‬‬
‫= )‪fX|Y (۱|۰‬‬ ‫‪۲۱‬‬
‫=‬ ‫‪۳۶‬‬
‫‪۲۱‬‬
‫=‬
‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۲۱‬‬
‫‪۳‬‬
‫)‪fX,Y (۲, ۰‬‬ ‫‪۳‬‬
‫= )‪fX|Y (۲|۰‬‬ ‫‪۲۱‬‬
‫=‬ ‫‪۳۶‬‬
‫‪۲۱‬‬
‫=‬
‫‪۳۶‬‬ ‫‪۳۶‬‬
‫‪۲۱‬‬

‫ﺑﺮای ﻣﺤﺎﺳﺒﻪ )‪ P(X ≤ ۱|Y = ۰‬ﻧﯿﺰ دارﯾﻢ‬

‫∑‬
‫‪۱‬‬
‫= )‪P(X ≤ ۱|Y = ۰‬‬ ‫)‪fX|Y (x|۰‬‬
‫‪x=۰‬‬

‫)‪= fX|Y (۰|۰) + fX|Y (۱|۰‬‬


‫‪۶‬‬ ‫‪۱۲ ۱۸ ۶‬‬
‫=‬ ‫‪+‬‬ ‫=‬ ‫=‬
‫‪۲۱ ۲۱ ۲۱ ۷‬‬

‫‪٣٢‬‬
.‫ را ﺑﺪﺳﺖ آورﯾﺪ‬fX|Y (x|y) ‫ و‬fY (y) ،fX (x) ‫ ﺗﻮاﺑﻊ‬،١۶-٢ ‫ در ﻣﺜﺎل‬.١٩-٢ ‫ﻣﺜﺎل‬
‫ دارﯾﻢ‬،١۶-٢ ‫ﻃﺒﻖ ﻣﺤﺎﺳﺒﺎت در ﻣﺜﺎل‬

 x (۱ + ۲y) if ۰ < x < ۳ , ۰ < y < ۱
fX,Y (x, y) = ۹
 ۰ o.w

:‫و ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬


∫ ∞
fX (x) = fX,Y (x, y)dy
−∞
∫ ۱
x
= (۱ + ۲y)dy
۰ ۹
x ۲x
= (y + y ۲ )|۱۰ = ۰<x<۳
۹ ۹

∫ ∞
fY (y) = fX,Y (x, y)dx
−∞
∫ ۳
x
= (۱ + ۲y)dx
۰ ۹
۱ x۲ ۱
= (۱ + ۲y)( )|۳۰ = (۱ + ۲y) ۰<y<۱
۹ ۲ ۲
‫ﺑﻨﺎﺑﺮاﯾﻦ‬
 
 ۲x if ۰ < x < ۳  ۱ (۱ + ۲y) if ۰ < y < ۱
fX (x) = ۹ fY (y) = ۲
۰ o.w  ۰ o.w

‫و ھﻤﭽﻨﯿﻦ‬
fX,Y (x, y)
fX|Y (x|y) =
fY (y)
x
(۱ + ۲y) ۲x
= ۹۱ = ۰ < x < ۳, ۰ < y < ۱
(۱ + ۲ y) ۹
۲ 
 ۲x if ۰ < x < ۳, ۰ < y < ۱
=⇒ fX|Y (x|y) = ۹
۰ o.w

٣٣
‫‪ ۴.٢.٢‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ‬
‫در ﻓﺼﻞ اول ﺑﯿﺎن ﮐﺮدﯾﻢ ﮐﻪ دو ﭘﯿﺸﺎﻣﺪ ‪ A‬و ‪ B‬ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‬

‫)‪P(A|B) = P(A‬‬ ‫≡‬ ‫)‪P(A ∩ B) = P(A)P(B‬‬

‫ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬و ‪ Y‬ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ ﺗ ﻮام )‪ fX,Y (x, y‬و ﺗ ﻮاﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل )‪ fX (x‬و‬


‫)‪ fY (y‬ﺑﺎﺷﻨﺪ‪ .‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ‬

‫)‪fX|Y (x|y) = fX (x‬‬ ‫≡‬ ‫)‪fX,Y (x, y) = fX (x)fY (y‬‬ ‫‪∀x, y‬‬

‫ﻣﺜﺎل ‪ .٢٠-٢‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام زﯾﺮ ﺑﺎﺷﻨﺪ‪.‬‬
‫‪‬‬
‫‪۳xy if ۰ < y < ۲x۲ , ۰ < x < ۱‬‬
‫= )‪fX,Y (x, y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫آﯾﺎ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ؟‬


‫∫‬ ‫‪۲x۲‬‬
‫‪۳xy ۲ ۲x۲‬‬
‫= )‪fX (x‬‬ ‫= ‪۳xy dy‬‬ ‫|‬ ‫‪= ۶x۵ ,‬‬ ‫‪۰<x<۱‬‬
‫‪۰‬‬ ‫‪۲ ۰‬‬
‫‪‬‬ ‫‪‬‬ ‫√‬
‫‪‬‬
‫‪‬‬ ‫√‬ ‫‪‬‬
‫‪‬‬ ‫‪y‬‬
‫∞‪ y < x < +‬‬ ‫‪max{۰,‬‬ ‫}∞‪} < x < min{۱, +‬‬
‫⇒= ‪۰ < y < ۲x۲‬‬ ‫‪۲‬‬
‫| ⇒=‬ ‫‪۲‬‬ ‫|‬ ‫‪{z‬‬ ‫}‬
‫‪‬‬ ‫‪‬‬ ‫‪{z‬‬ ‫}‬
‫‪‬‬
‫‪ ۰<x<۱‬‬ ‫‪‬‬
‫‪‬‬ ‫‪√y‬‬
‫‪۲‬‬ ‫‪۱‬‬
‫‪∫ ۱‬‬
‫√‪۳yx۲ ۱‬‬ ‫‪۳‬‬ ‫‪y‬‬
‫= ‪=⇒ fY (y) = √ ۳xy dx‬‬ ‫‪| y = y(۱ − ), ۰ < y < ۲x۲ , ۰ < x < ۱‬‬
‫‪y‬‬
‫‪۲‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫ﭘﺲ دارﯾﻢ‬
‫‪۳‬‬ ‫‪y‬‬
‫‪fX,Y (x, y) = ۳xy ̸= fX (x).fY (y) = (۶x۵ )( y(۱ −‬‬ ‫))‬
‫‪۲‬‬ ‫‪۲‬‬
‫در ﻧﺘﯿﺠﻪ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ﻧﯿﺴﺘﻨﺪ‪.‬‬

‫‪ ٣.٢‬ﺗﻮزﯾﻊ ﺗﺎﺑﻌﯽ از ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬


‫ﺗ ﺎﺑ ﻌ ﯽ از ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ‪ ،‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ اﺳ ﺖ و دارای ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل و ﺗ ﺎﺑ ﻊ ﺗ ﻮزﯾ ﻊ ﺗ ﺠ ﻤ ﻌ ﯽ‬
‫اﺣﺘﻤﺎل اﺳﺖ‪ .‬ﻓﺮض ﮐﻨﯿﺪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪ fX (x‬و ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﺗﺠﻤﻌﯽ اﺣﺘﻤﺎل‬
‫)‪ FX (x‬ﺑﺎﺷﺪ‪ .‬اﮔﺮ ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ‬
‫)‪Y = g(X‬‬

‫‪٣۴‬‬
‫آن ﮔﺎه ‪ Y‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ‪) .‬درواﻗﻊ ھﺮ ﺗﺎﺑﻊ از ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ(‪ .‬ﺑﺮای‬
‫ﯾﺎﻓﺘﻦ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل و ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ Y‬ﺑﻪ روش زﯾﺮ ﻋﻤﻞ ﻣﯽ ﮐﻨﯿﻢ‪:‬‬

‫))‪FY (y) = P(Y ≤ y) = P(g(X) ≤ y) = P(X ≤ g −۱ (y)) = FX (g −۱ (y‬‬

‫• اﮔﺮ ‪ Y‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬

‫) ‪fY (y) = FY (y) − FY (y −‬‬

‫• اﮔﺮ ‪ Y‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∂‬
‫= )‪fY (y‬‬ ‫))‪FX (g −۱ (y‬‬
‫‪∂y‬‬

‫ﻣﺜﺎل ‪ .٢١-٢‬ﻓﺮض ﮐﻨﯿﺪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ اﺣﺘﻤﺎل زﯾﺮ ﺑﺎﺷﺪ‪.‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰ if‬‬ ‫‪x<۰‬‬
‫‪‬‬
‫‪‬‬
‫= )‪FX (x‬‬ ‫‪x if ۰ ≤ x < ۱‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪۱ if‬‬ ‫‪x≥۱‬‬

‫ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ‪ Y = X ۲‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬


‫√‬ ‫√‬
‫)‪FY (y) = P(Y ≤ y) = P(X ۲ ≤ y) = P(− y ≤ X ≤ y‬‬
‫‪‬‬
‫√‬ ‫√‬ ‫‪√y − ۰ if ۰ ≤ y < ۱‬‬
‫= )‪= FX ( y) − FX (− y‬‬
‫‪ ۱ − ۰ if‬‬ ‫‪y≥۱‬‬

‫‪‬‬ ‫در ﻧﺘﯿﺠﻪ‬


‫‪‬‬
‫‪‬‬ ‫‪۰ if‬‬ ‫‪y<۰‬‬
‫‪‬‬
‫‪‬‬
‫√‬
‫= )‪FY (y‬‬ ‫‪y if ۰ ≤ y < ۱‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪ ۱ if‬‬ ‫‪y≥۱‬‬
‫‪۱‬‬
‫= )‪fY (y) = FY′ (y‬‬ ‫‪√ ,‬‬ ‫‪۰<y<۱‬‬
‫‪۲ y‬‬

‫‪٣۵‬‬
‫ﻓﺼ ﻞ ‪٣‬‬

‫اﻣﯿﺪ رﯾﺎﺿﯽ‬

‫در اﯾﻦ ﻓﺼﻞ اﻣﯿﺪرﯾﺎﺿﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ و ﺗﻮاﺑﻌﯽ از ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ را ﺑﺮرﺳﯽ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﺑﺮای ﭘﯽ ﺑﺮدن‬
‫ﺑﻪ ﻣﻔﻬﻮم اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﻪ ﻣﺜﺎل زﯾﺮ ﺗﻮﺟﻪ ﮐﻨﯿﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .١-٣‬ﻓﺮض ﮐﻨﯿﺪ ﺟﺮﯾﻤﻪ ﺗﻮﻗﻒ اﺗﻮﻣﺒﯿﻞ در ﻣﺤﻞ ﭘﺎرک ﻣﻤﻨﻮع‪ ،‬ﯾﮏ ھﺰار ﺗﻮﻣﺎن ﺑﺎﺷﺪ و در ﯾﮏ ﺷﻬﺮ ‪۴٠‬‬
‫درﺻ ﺪ اﻓ ﺮاد ھﯿ ﭽﮕ ﺎه‪ ٣٠ ،‬درﺻ ﺪ اﻓ ﺮاد ﯾ ﮑ ﺒﺎر‪ ٢٠ ،‬درﺻ ﺪ اﻓ ﺮاد دوﺑ ﺎر و ‪ ١٠‬درﺻ ﺪ اﻓ ﺮاد ﺳ ﻪ ﺑ ﺎر در ﻣ ﺎه ﺑ ﻪ ﺟﻬ ﺖ‬
‫ﭘﺎرک در ﻣﺤﻞ ﭘﺎرک ﻣﻤﻨﻮع ﺟﺮﯾﻤﻪ ﺷﻮﻧﺪ‪ .‬ﺑﻪ ﻃﻮر ﻣﺘﻮﺳﻂ اﻧﺘﻈﺎر دارﯾﺪ ﮐﻪ ھﺮ ﻧﻔﺮ در اﯾﻦ ﺷﻬﺮ ﭼﻪ ﻣﺒﻠﻐﯽ را در‬
‫ﻣﺎه ﺑﺮای ﺟﺮﯾﻤﻪ ﺗﻮﻗﻒ اﺗﻮﻣﺒﯿﻞ در ﻣﺤﻞ ﭘﺎرک ﻣﻤﻨﻮع ﭘﺮداﺧﺖ ﻧﻤﺎﯾﺪ‪.‬‬
‫ﺑ ﺮای ﺣ ﻞ‪ ،‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ ۵٠٠‬ﻧ ﻔ ﺮ از اﻓ ﺮاد اﯾ ﻦ ﺷ ﻬ ﺮ ﻣ ﻮرد ﻣ ﻄ ﺎﻟ ﻌ ﻪ ﺑ ﺎﺷ ﻨ ﺪ‪ .‬ﺑ ﺮاﺳ ﺎس درﺻ ﺪھ ﺎی داده ﺷ ﺪه در‬
‫ﺻﻮرت ﺳﻮال اﻧﺘﻈﺎر دارﯾﻢ‪:‬‬

‫• ‪ ٢٠٠‬ﻧﻔﺮ از ‪ ۵٠٠‬ﻧﻔﺮ ھﯿﭻ ﻣﺒﻠﻐﯽ ﺟﺮﯾﻤﻪ ﻧﺸﻮﻧﺪ‪۵۰۰ × ۰٫ ۴ = ۲۰۰ :‬‬

‫• ‪ ١۵٠‬ﻧﻔﺮ از ‪ ۵٠٠‬ﻧﻔﺮ ﯾﮏ ھﺰار ﺗﻮﻣﺎن ﺟﺮﯾﻤﻪ ﺷﻮﻧﺪ‪۵۰۰ × ۰٫ ۳ = ۱۵۰ :‬‬

‫• ‪ ١٠٠‬ﻧﻔﺮ از ‪ ۵٠٠‬ﻧﻔﺮدو ھﺰار ﺗﻮﻣﺎن ﺟﺮﯾﻤﻪ ﺷﻮﻧﺪ‪۵۰۰ × ۰٫ ۲ = ۱۰۰ :‬‬

‫• ‪ ۵٠‬ﻧﻔﺮ از ‪ ۵٠٠‬ﻧﻔﺮ ﺳﻪ ھﺰار ﺗﻮﻣﺎن ﺟﺮﯾﻤﻪ ﺷﻮﻧﺪ‪.۵۰۰ × ۰٫ ۱ = ۵۰ :‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ اﻧﺘﻈﺎر دارﯾﻢ ﮐﻪ ‪ ۵٠٠‬ﻧﻔﺮ ﻣﺒﻠﻐﯽ ﺑﺮاﺑﺮ ﺑﺎ راﺑﻄﻪ زﯾﺮ ﺟﺮﯾﻤﻪ ﭘﺮداﺧﺖ ﮐﻨﻨﺪ‬

‫‪(۵۰۰ × ۰٫ ۴ × ۰) + (۵۰۰ × ۰٫ ۳ × ۱) + (۵۰۰ × ۰٫ ۲ × ۲) + (۵۰۰ × ۰٫ ۱ × ۳) = ۵۰۰‬‬


‫‪ ( ۵۰۰‬ﯾ ﮏ ھ ﺰار ﺗ ﻮﻣ ﺎن در ﻣ ﺎه ﺟ ﺮﯾ ﻤ ﻪ ﭘ ﺮداﺧ ﺖ ﻧ ﻤ ﺎﯾ ﻨ ﺪ‪ .‬ﺑ ﻪ‬
‫ﺑ ﻨ ﺎﺑ ﺮاﯾ ﻦ ﺑ ﻄ ﻮر ﻣ ﺘ ﻮﺳ ﻂ اﻧ ﺘ ﻈ ﺎر دارﯾ ﻢ ﮐ ﻪ ھ ﺮ ﻧ ﻔ ﺮ )‪۵۰۰ = ۱‬‬
‫ﻋﺒﺎرت دﯾﮕﺮ اﮔﺮ در اﯾﻦ ﻣﺜﺎل‪ ،‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را ﻣﺒﻠﻎ ﺟﺮﯾﻤﻪ ﺷﺨﺺ در ﯾﮏ ﻣﺎه ﺑﺮﺣﺴﺐ ھﺰار ﺗﻮﻣﺎن ﺗﻌﺮﯾﻒ‬
‫ﮐﻨﯿﻢ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ‪:‬‬

‫‪x‬‬ ‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬ ‫‪٣‬‬


‫)‪fX (x‬‬ ‫‪۰٫ ۴ ۰٫ ۳ ۰٫ ۲ ۰٫ ۱‬‬

‫اﻣﯿﺪ رﯾﺎﺿﯽ ‪ ، X‬ﯾﺎ ﻣﯿﺎﻧﮕﯿﻦ وزﻧﯽ ‪ X‬ﯾﺎ ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎر ‪ ،X‬در ﺣﻘﯿﻘﺖ ﻣﯿﺎﻧﮕﯿﻦ وزﻧﯽ ﻣﺒﻠﻎ ﺟﺮﯾﻤﻪ‬
‫اﺳﺖ و آن را ﺑﺎ ﻧﻤﺎدھﺎی )‪ E(X‬ﯾﺎ ‪ µ‬ﯾﺎ ‪ µX‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ و دارﯾﻢ‬

‫∑‬
‫‪۳‬‬
‫= )‪µ = E(X‬‬ ‫‪xfX (x) = (۰ × ۰٫ ۴) + (۱ × ۰٫ ۳) + (۲ × ۰٫ ۲) + (۳ × ۰٫ ۱) = ۱‬‬
‫‪x=۰‬‬

‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .٢-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل )‪ fX (x‬ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ ‪ X‬ﯾ ﺎ‬


‫ﻣﯿﺎﻧﮕﯿﻦ وزﻧﯽ ‪ X‬ﯾﺎ ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎر ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫• اﮔﺮ ‪ X‬ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬
‫= )‪E(X‬‬ ‫)‪xfX (x‬‬
‫‪x‬‬

‫∫‬ ‫• اﮔﺮ ‪ X‬ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∞‬
‫= )‪E(X‬‬ ‫‪xfX (x)dx‬‬
‫∞‪−‬‬

‫در ﺻﻮرﺗﯽ ﮐﻪ ∞‪ ، E(X) = ±‬ﮔﻮﯾﯿﻢ اﻣﯿﺪ رﯾﺎﺿﯽ ‪ X‬وﺟﻮد ﻧﺪارد‪.‬‬

‫‪٣٧‬‬
‫ﻣﺜﺎل ‪ .٣-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﯽ ﺧﻮاھﯿﻢ ‪ ٣‬ﻧﻔﺮ را از ﺑﯿﻦ ‪ ۵‬ﻣﻬﻨﺪس و ‪ ٣‬ﺗﮑﻨﺴﯿﻦ اﻧﺘﺨﺎب ﮐﻨﯿﻢ‪ .‬اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﻌﺪاد‬
‫ﻣﻬﻨﺪﺳﯿﻦ اﻧﺘﺨﺎﺑﯽ در ﺑﯿﻦ اﯾﻦ ‪ ٣‬ﻧﻔﺮ را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣ ﻞ‪ :‬اﮔ ﺮ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬ﺑ ﻪ ﺻ ﻮرت ﺗ ﻌ ﺪاد ﻣ ﻬ ﻨ ﺪﺳ ﯿ ﻦ اﻧ ﺘ ﺨ ﺎب ﺷ ﺪه در ﺑ ﯿ ﻦ ‪ ٣‬ﻧ ﻔ ﺮ ﺗ ﻌ ﺮﯾ ﻒ ﺷ ﻮد آن ﮔ ﺎه‬
‫}‪ SX = {۰, ۱, ۲, ۳‬و ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬
‫‪‬‬ ‫‪ ‬‬ ‫‪‬‬
‫‪ ۵۶‬‬
‫‪۱‬‬ ‫‪۵‬‬
‫‪if x = ۰‬‬ ‫‪۳‬‬
‫‪ ‬‬ ‫‪ ‬‬
‫‪‬‬
‫‪‬‬
‫‪x‬‬ ‫‪۳−x‬‬ ‫‪‬‬
‫‪ ۱۵ if x = ۱‬‬
‫= )‪fX (x) = P(X = x‬‬ ‫‪ ‬‬ ‫‪= ۵۶‬‬
‫‪‬‬
‫‪‬‬ ‫‪۳۰‬‬
‫‪۸‬‬ ‫‪‬‬
‫‪‬‬ ‫‪۵۶ if x = ۲‬‬
‫‪ ‬‬ ‫‪‬‬
‫‪ ۱۰‬‬
‫‪۳‬‬ ‫‪۵۶ if x = ۳‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫∑‬
‫‪۳‬‬
‫= )‪µ = E(X‬‬ ‫)‪xfX (x‬‬
‫‪x=۰‬‬
‫‪۱‬‬ ‫‪۱۵‬‬ ‫‪۳۰‬‬ ‫‪۱۰‬‬
‫× ‪= (۰‬‬ ‫× ‪) + (۱‬‬ ‫× ‪) + (۲‬‬ ‫× ‪) + (۳‬‬ ‫)‬
‫‪۵۶‬‬ ‫‪۵۶‬‬ ‫‪۵۶‬‬ ‫‪۵۶‬‬
‫‪۱۰۵‬‬
‫=‬ ‫‪= ۱٫ ۹‬‬
‫‪۵۶‬‬
‫ﯾ ﻌ ﻨ ﯽ اﮔ ﺮ ﺑ ﺨ ﻮاھ ﯿ ﻢ ‪ ٣‬ﻧ ﻔ ﺮ را از اﯾ ﻦ ﮔ ﺮوه اﻧ ﺘ ﺨ ﺎب ﮐ ﻨ ﯿ ﻢ ﺑ ﻄ ﻮر ﻣ ﺘ ﻮﺳ ﻂ اﻧ ﺘ ﻈ ﺎر دارﯾ ﻢ ﮐ ﻪ ﺗ ﻘ ﺮﯾ ﺒ ﺎ ‪ ٢‬ﻧ ﻔ ﺮ از آن ھ ﺎ‬
‫ﻣﻬﻨﺪس ﺑﺎﺷﻨﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .۴-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﻧﺸﺎﻧﮕﺮ ﻃﻮل ﻋﻤﺮ ﻧﻮﻋﯽ ﻻﺳﺘﯿﮏ ﺑﺮ ﺣﺴﺐ ﺳﺎل ﺑﺎﺷﺪ ﮐﻪ دارای ﺗﺎﺑﻊ‬
‫‪‬‬ ‫ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل زﯾﺮ اﺳﺖ‪.‬‬
‫‪ ۱ e −x‬‬
‫‪۲‬‬ ‫‪if x > ۰‬‬
‫‪fX (x) = ۲‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫ﻣﺘﻮﺳﻂ ﻃﻮل ﻋﻤﺮ اﯾﻦ ﻻﺳﺘﯿﮏ را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬


‫ﺣﻞ‪:‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫‪۱‬‬ ‫‪−x‬‬
‫= )‪µX = E(X‬‬ ‫= ‪xfX (x)dx‬‬ ‫‪dx‬‬ ‫‪x e‬‬ ‫‪۲‬‬
‫∞‪−‬‬ ‫‪۰‬‬ ‫‪۲‬‬
‫∞ ∫‬
‫‪−x‬‬ ‫‪−x‬‬
‫∞‬
‫‪= −xe |۰ −‬‬
‫‪۲‬‬ ‫‪−e ۲ dx‬‬
‫‪۰‬‬
‫‪−x‬‬
‫∞‬
‫‪= −۲e‬‬ ‫‪۲‬‬ ‫‪|۰ = ۲‬‬

‫ﭘﺲ اﻧﺘﻈﺎر دارﯾﻢ ﮐﻪ اﯾﻦ ﻧﻮع ﻻﺳﺘﯿﮏ ﺑﻄﻮر ﻣﺘﻮﺳﻂ ‪ ٢‬ﺳﺎل ﮐﺎر ﮐﻨﺪ‪.‬‬

‫‪٣٨‬‬
‫‪ ١.٣‬اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻌﯽ از ﯾﮏ ﯾﺎ ﭼﻨﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻦ ﻧﮑﺘﻪ ﮐﻪ ﺗﺎﺑﻌﯽ از ھﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫اﺳﺖ ﭘﺲ )‪ Y = g(X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺧﻮاھﺪ ﺑﻮد‪ .‬ﺑﺮای ﻣﺤﺎﺳﺒﻪ اﻣﯿﺪ رﯾﺎﺿﯽ )‪ ،Y = g(X‬ﻣﯽ ﺗﻮان از‬
‫ﻗﻀﯿﻪ زﯾﺮ اﺳﺘﻔﺎده ﮐﺮد‪.‬‬

‫ﻗﻀﯿﻪ ‪ .۵-٣‬ﻓﺮض ﮐﻨﯿﺪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪ fX (x‬ﺑﺎﺷﺪ‪ .‬اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻊ )‪g(X‬‬
‫ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬
‫= ))‪E(g(X‬‬ ‫)‪g(x)fX (x‬‬
‫‪x‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= ))‪E(g(X‬‬ ‫‪g(x)fX (x)dx‬‬
‫∞‪−‬‬

‫ﻣ ﺜ ﺎل ‪ .۶-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ ،X‬دارای ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل زﯾ ﺮ ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ‬


‫‪ g(X) = (X − ۱)۲‬را ﺑﻪ دﺳﺖ آورﯾﺪ‪.‬‬

‫‪x‬‬ ‫‪−۱‬‬ ‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬


‫)‪fX (x‬‬ ‫‪۰٫ ۱ ۰٫ ۱ ۰٫ ۵ ۰٫ ۳‬‬

‫ﺣﻞ‪ :‬واﺿﺢ اﺳﺖ ﮐﻪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ اﺳﺖ‪ .‬دارﯾﻢ‪:‬‬

‫∑‬
‫‪۲‬‬
‫= ) ‪E((X − ۱)۲‬‬ ‫)‪(x − ۱)۲ fX (x‬‬
‫‪x=−۱‬‬

‫)‪= (−۱ − ۱)۲ (۰٫ ۱) + (۰ − ۱)۲ (۰٫ ۱) + (۱ − ۱)۲ (۰٫ ۵) + (۲ − ۱)۲ (۰٫ ۳‬‬

‫‪= ۰٫ ۸.‬‬

‫‪٣٩‬‬
‫ﻣ ﺜ ﺎل ‪ .٧-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬دارای ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل زﯾ ﺮ ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ‬
‫‪ g(X) = ۵X − ۴‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫‪‬‬
‫‪‬‬ ‫√ ‪۳‬‬
‫‪۱۶ x‬‬ ‫‪if ۰ < x < ۴‬‬
‫= )‪fX (x‬‬
‫‪‬‬ ‫‪۰‬‬ ‫‪o.w‬‬

‫ﺣﻞ‪ :‬واﺿﺢ اﺳﺖ ﮐﻪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﻮده و ﺑﻨﺎﺑﺮاﯾﻦ )‪ Y = g(X‬ﻧﯿﺰ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ‬
‫اﺳﺖ‪ .‬دارﯾﻢ‪:‬‬
‫∫‬ ‫‪۴‬‬
‫√‪۳‬‬ ‫‪۱‬‬
‫‪xdx = ( (−۴ + ۳x)x ۲ )|۴۰ = ٨‬‬
‫‪۳‬‬
‫= )‪E(۵X − ۴‬‬ ‫)‪(۵x − ۴‬‬
‫‪۰‬‬ ‫‪۱۶‬‬ ‫‪۸‬‬
‫ﻗﻀﯿﻪ ‪ ۵-٣‬را ﻣﯽ ﺗﻮان ﺑﻪ ﺳﺎدﮔﯽ ﺑﺮای اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻌﯽ از ﭼﻨﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻌﻤﯿﻢ داد‪.‬‬

‫ﻗ ﻀ ﯿ ﻪ ‪ .٨-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬و ‪ Y‬دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺗ ﻮام )‪ fX,Y (x, y‬ﺑ ﺎﺷ ﻨ ﺪ‪ .‬اﻣ ﯿ ﺪ‬


‫رﯾﺎﺿﯽ ﺗﺎﺑﻊ ) ‪ g(X, Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑∑‬
‫= )) ‪E(g(X, Y‬‬ ‫)‪g(x, y)fX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= )) ‪E(g(X, Y‬‬ ‫‪g(x, y)fX,Y (x, y)dydx‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫‪۴٠‬‬
‫ﻣﺜﺎل ‪ .٩-٣‬ﺟﻌﺒﻪ ای ﺷﺎﻣﻞ ‪ ٢‬ﻣﻬﺮه ﺳﻔﯿﺪ و ‪ ٣‬ﻣﻬﺮه ﺳﯿﺎه اﺳﺖ‪ .‬اﺑﺘﺪا ﯾﮏ ﻣﻬﺮه از اﯾﻦ ﺟﻌﺒﻪ اﻧﺘﺨﺎب ﻣﯽ ﮐﻨﯿﻢ و‬
‫ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬را ﺑ ﺮاﺑ ﺮ ﺑ ﺎ ﺗ ﻌ ﺪاد ﻣ ﻬ ﺮه ھ ﺎی ﺳ ﻔ ﯿ ﺪ در اﯾ ﻦ ﯾ ﮏ ﻣ ﻬ ﺮه در ﻧ ﻈ ﺮ ﻣ ﯽ ﮔ ﯿ ﺮﯾ ﻢ‪ .‬ﺳ ﭙ ﺲ از ﻣ ﺎﺑ ﻘ ﯽ‬
‫ﻣﻬﺮه ھﺎی ﺟﻌﺒﻪ دو ﻣﻬﺮه دﯾﮕﺮ اﻧﺘﺨﺎب ﻣﯽ ﮐﻨﯿﻢ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ Y‬را ﺑﺮاﺑﺮ ﺑﺎ ﺗﻌﺪاد ﻣﻬﺮه ھﺎی ﺳﻔﯿﺪ ﻣﺸﺎھﺪه‬
‫ﺷﺪه در اﯾﻦ دو ﻣﻬﺮه اﻧﺘﺨﺎﺑﯽ ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ) ‪ (X, Y‬را ﺑﺪﺳﺖ آورﯾﺪ و ) ‪E(X ۲ Y‬‬
‫را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﻃﺒﻖ ﺗﻌﺎرﯾﻒ ﺻﻮرت ﻣﺴﺎﻟﻪ دارﯾﻢ‪ SX = {۰, ۱} :‬و }‪.SY = {۰, ۱, ۲‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪ ‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۳‬‬ ‫‪۱‬‬
‫= )‪fX,Y (۰, ۰) = P(X = ۰, Y = ۰) = P(X = ۰)P(Y = ۰|X = ۰‬‬ ‫=‪× ‬‬ ‫=‬
‫‪۵‬‬ ‫‪۴‬‬ ‫‪۳۰ ۱۰‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪ ‬‬
‫‪۳‬‬
‫‪ ‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۶‬‬ ‫‪۲‬‬
‫= )‪fX,Y (۱, ۰) = P(X = ۱, Y = ۰) = P(X = ۱)P(Y = ۰|X = ۱‬‬ ‫=‪× ‬‬ ‫=‬
‫‪۵‬‬ ‫‪۴‬‬ ‫‪۳۰ ۱۰‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪..‬‬
‫‪.‬‬

‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫)‪fY (y‬‬
‫‪y‬‬
‫‪۰‬‬ ‫‪۰٫ ۱ ۰٫ ۲‬‬ ‫‪۰٫ ۳‬‬
‫‪۱‬‬ ‫‪۰٫ ۴ ۰٫ ۲‬‬ ‫‪۰٫ ۶‬‬
‫‪۲‬‬ ‫‪۰٫ ۱‬‬ ‫‪۰‬‬ ‫‪۰٫ ۱‬‬
‫)‪fX (x‬‬ ‫‪۰٫ ۶ ۰٫ ۴‬‬ ‫‪١‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬


‫∑‬
‫∑ ‪۱‬‬
‫‪۲‬‬
‫= ) ‪E(X ۲ Y‬‬ ‫)‪x۲ yfX,Y (x, y‬‬
‫‪x=۰ y=۰‬‬

‫‪= (۰)(۰٫ ۱) + (۰)(۰٫ ۴) + (۰)(۰٫ ۱) + (۰)(۰٫ ۲) + (۱)(۰٫ ۲) + (۲)(۰) = ۰٫ ۲‬‬

‫‪۴١‬‬
‫‪X+۱‬‬
‫‪Y‬‬
‫ﻣﺜﺎل ‪ .١٠-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل زﯾﺮ ﺑﺎﺷﺪ‪ .‬اﻣﯿﺪ رﯾﺎﺿﯽ‬
‫‪‬‬ ‫را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫‪ ۱۶y if x > ۲, ۰ < y < ۱‬‬
‫‪x۳‬‬
‫= )‪fX,Y (x, y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬
‫ﺣﻞ‪:‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫‪X +۱‬‬ ‫‪x+۱‬‬
‫(‪E‬‬ ‫=)‬ ‫‪fX,Y (x, y)dydx‬‬
‫‪Y‬‬ ‫∞‪−∞ −‬‬ ‫‪y‬‬
‫∫‬‫‪∞∫ ۱‬‬
‫‪x + ۱ ۱۶y‬‬
‫=‬ ‫(‬ ‫‪) ۳ dydx‬‬
‫‪۲‬‬ ‫‪۰‬‬ ‫‪y‬‬ ‫‪x‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫‪۱‬‬
‫)‪۱۶(x + ۱‬‬
‫=‬ ‫‪dydx‬‬
‫‪x۳‬‬
‫∞‪∫۲‬‬ ‫‪۰‬‬
‫‪۱‬‬ ‫‪۱‬‬
‫=‬ ‫(‪۱۶‬‬ ‫‪+‬‬ ‫‪)(y|۱۰ )dx‬‬
‫‪۲‬‬ ‫‪x۲‬‬ ‫‪x۳‬‬
‫‪−۱‬‬ ‫∞ ‪۱‬‬
‫(‪= ۱۶‬‬ ‫‪−‬‬ ‫|)‬
‫‪x‬‬ ‫‪۲x۲ ۲‬‬
‫‪−۱ ۱‬‬ ‫‪۵‬‬
‫( ‪= ۱۶(۰ −‬‬ ‫‪− )) = ۱۶ × = ۱۰‬‬
‫‪۲‬‬ ‫‪۸‬‬ ‫‪۸‬‬

‫‪۴٢‬‬
‫‪ ٢.٣‬اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻌﯽ از ﯾﮏ ﯾﺎ ﭼﻨﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻦ ﻧﮑﺘﻪ ﮐﻪ ﺗﺎﺑﻌﯽ از ھﺮ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫اﺳﺖ ﭘﺲ )‪ Y = g(X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺧﻮاھﺪ ﺑﻮد‪ .‬ﺑﺮای ﻣﺤﺎﺳﺒﻪ اﻣﯿﺪ رﯾﺎﺿﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ )‪Y = g(X‬‬
‫ﻣﯽ ﺗﻮان ﺑﻪ دو روش زﯾﺮ ﻋﻤﻞ ﮐﺮد‪:‬‬

‫• روش اول‪ :‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ )‪ ،Y = g(X‬ﯾﻌﻨﯽ )‪ ،fY (y‬را ﺑﺪﺳﺖ آورده و ﺑﻨﺎﺑﺮاﯾﻦ‬

‫– اﮔﺮ )‪ Y = g(X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬
‫= ) ‪E(g(X)) = E(Y‬‬ ‫)‪yfY (y‬‬
‫‪y‬‬

‫– اﮔﺮ )‪ Y = g(X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= ) ‪E(g(X)) = E(Y‬‬ ‫‪yfY (y)dy‬‬
‫∞‪−‬‬

‫• روش دوم‪ :‬ﺑﺮای ﻣﺤﺎﺳﺒﻪ اﻣﯿﺪ رﯾﺎﺿﯽ )‪ ،Y = g(X‬ﻣﯽ ﺗﻮان از ﻗﻀﯿﻪ زﯾﺮ اﺳﺘﻔﺎده ﮐﺮد‪.‬‬

‫ﻗ ﻀ ﯿ ﻪ ‪ .١١-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل )‪ fX (x‬ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ‬


‫ﺗﺎﺑﻊ )‪ g(X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫– اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬
‫= ))‪E(g(X‬‬ ‫)‪g(x)fX (x‬‬
‫‪x‬‬

‫– اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= ))‪E(g(X‬‬ ‫‪g(x)fX (x)dx‬‬
‫∞‪−‬‬

‫ﺑﺪﺳﺖ آوردن اﻣﯿﺪ رﯾﺎﺿﯽ )‪ ،Y = g(X‬از دو روش ﻣﻄﺮح ﺷﺪه ﻣﻨﺠﺮ ﺑﻪ ﯾﮏ ﺟﻮاب ﻣﯽ ﮔﺮدد‪.‬‬

‫‪۴٣‬‬
‫ﻣ ﺜ ﺎل ‪ .١٢-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ ،X‬دارای ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل زﯾ ﺮ ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ‬
‫‪ g(X) = (X − ۱)۲‬را ﺑﻪ دﺳﺖ آورﯾﺪ‪.‬‬

‫‪x‬‬ ‫‪−۱‬‬ ‫‪٠‬‬ ‫‪١‬‬ ‫‪٢‬‬


‫)‪fX (x‬‬ ‫‪۰٫ ۱ ۰٫ ۱ ۰٫ ۵ ۰٫ ۳‬‬

‫ﺣﻞ‪ :‬واﺿﺢ اﺳﺖ ﮐﻪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ اﺳﺖ‪ .‬از روش دوم اﺳﺘﻔﺎده ﻣﯽ ﮐﻨﯿﻢ و دارﯾﻢ‪:‬‬

‫∑‬
‫‪۲‬‬
‫= ) )‪E((X − ۱‬‬‫‪۲‬‬
‫)‪(x − ۱)۲ fX (x‬‬
‫‪x=−۱‬‬

‫)‪= (−۱ − ۱)۲ (۰٫ ۱) + (۰ − ۱)۲ (۰٫ ۱) + (۱ − ۱)۲ (۰٫ ۵) + (۲ − ۱)۲ (۰٫ ۳‬‬

‫‪= ۰٫ ۸‬‬

‫ﺑﺮای روش اول دارﯾﻢ‪ Y = (X − ۱)۲ ،‬و }‪ .SY = {۰, ۱, ۴‬ﺑﻨﺎﺑﺮاﯾﻦ‬

‫‪P(Y = ۰) = P(X = ۱) = ۰٫ ۵‬‬

‫‪P(Y = ۱) = P(X = ۰) + P(X = ۲) = ۰٫ ۱ + ۰٫ ۳ = ۰٫ ۴‬‬

‫‪P(Y = ۴) = P(X = −۱) = ۰٫ ۱‬‬

‫‪=⇒ E(Y ) = ۰ × ۰٫ ۵ + ۱ × ۰٫ ۴ + ۴ × ۰٫ ۱ = ۰٫ ۸‬‬

‫‪۴۴‬‬
‫ﻣ ﺜ ﺎل ‪ .١٣-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬دارای ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل زﯾ ﺮ ﺑ ﺎﺷ ﺪ‪ .‬اﻣ ﯿ ﺪ رﯾ ﺎﺿ ﯽ‬
‫‪ g(X) = ۵X − ۴‬را ﺑﻪ دو روش ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫‪‬‬
‫‪‬‬ ‫√ ‪۳‬‬
‫‪۱۶ x‬‬ ‫‪if ۰ < x < ۴‬‬
‫= )‪fX (x‬‬
‫‪‬‬ ‫‪۰‬‬ ‫‪o.w‬‬

‫ﺣﻞ‪ :‬واﺿﺢ اﺳﺖ ﮐﻪ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﻮده و ﺑﻨﺎﺑﺮاﯾﻦ )‪ Y = g(X‬ﻧﯿﺰ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ‬
‫اﺳﺖ‪ .‬از روش اول دارﯾﻢ‪:‬‬

‫‪y+۴‬‬ ‫‪y+۴‬‬
‫≤ ‪FY (y) = P(Y ≤ y) = P(۵X − ۴ ≤ y) = P(X‬‬ ‫( ‪) = FX‬‬ ‫)‬
‫√‬ ‫‪۵‬‬ ‫‪۵‬‬
‫‪y+۴‬‬ ‫‪۱‬‬ ‫‪y+۴‬‬ ‫‪۳ y+۴‬‬
‫( ‪=⇒fY (y) = FX′‬‬ ‫( ‪) = fX‬‬ ‫=)‬
‫‪۵‬‬ ‫‪۵‬‬ ‫‪۵‬‬ ‫‪۸۰‬‬ ‫‪۵‬‬
‫‪y+۴‬‬
‫<‪۰‬‬ ‫‪< ۴ =⇒ −۴ < y < ۱۶‬‬
‫‪۵‬‬
‫‪or‬‬
‫‪۰ < x < ۴ =⇒ −۴ < ۵x − ۴ < ۱۶ =⇒ −۴ < y < ۱۶‬‬
‫∫‬ ‫√‬
‫‪۱۶‬‬
‫‪۳‬‬ ‫‪y+۴‬‬ ‫‪۱‬‬ ‫√‬
‫= ) ‪=⇒E(Y‬‬ ‫‪y‬‬ ‫( = ‪dy‬‬ ‫‪−۴ = ٨‬‬
‫‪(y + ۴)(−۸ + ۳y) ۵y + ۲۰)|۱۶‬‬
‫‪−۴‬‬ ‫‪۸۰‬‬ ‫‪۵‬‬ ‫‪۱۰۰۰‬‬
‫از روش دوم ﻧﯿﺰ دارﯾﻢ‪:‬‬
‫∫‬ ‫‪۴‬‬
‫√‪۳‬‬ ‫‪۱‬‬
‫‪xdx = ( (−۴ + ۳x)x ۲ )|۴۰ = ٨‬‬
‫‪۳‬‬
‫= )‪E(۵X − ۴‬‬ ‫)‪(۵x − ۴‬‬
‫‪۰‬‬ ‫‪۱۶‬‬ ‫‪۸‬‬
‫ﻗﻀﯿﻪ ‪ ۵-٣‬را ﻣﯽ ﺗﻮان ﺑﻪ ﺳﺎدﮔﯽ ﺑﺮای اﻣﯿﺪ رﯾﺎﺿﯽ ﺗﺎﺑﻌﯽ از ﭼﻨﺪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻌﻤﯿﻢ داد‪.‬‬

‫ﻗ ﻀ ﯿ ﻪ ‪ .١۴-٣‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬و ‪ Y‬دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ اﺣ ﺘ ﻤ ﺎل ﺗ ﻮام )‪ fX,Y (x, y‬ﺑ ﺎﺷ ﻨ ﺪ‪ .‬اﻣ ﯿ ﺪ‬


‫رﯾﺎﺿﯽ ﺗﺎﺑﻊ ) ‪ g(X, Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‪:‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑∑‬
‫= )) ‪E(g(X, Y‬‬ ‫)‪g(x, y)fX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= )) ‪E(g(X, Y‬‬ ‫‪g(x, y)fX,Y (x, y)dydx‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫‪۴۵‬‬
‫ﻣﺜﺎل ‪ .١۵-٣‬ﺟﻌﺒﻪ ای ﺷﺎﻣﻞ ‪ ٢‬ﻣﻬﺮه ﺳﻔﯿﺪ و ‪ ٣‬ﻣﻬﺮه ﺳﯿﺎه اﺳﺖ‪ .‬اﺑﺘﺪا ﯾﮏ ﻣﻬﺮه از اﯾﻦ ﺟﻌﺒﻪ اﻧﺘﺨﺎب ﻣﯽ ﮐﻨﯿﻢ‬
‫و ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬را ﺑ ﺮاﺑ ﺮ ﺑ ﺎ ﺗ ﻌ ﺪاد ﻣ ﻬ ﺮه ھ ﺎی ﺳ ﻔ ﯿ ﺪ در اﯾ ﻦ ﯾ ﮏ ﻣ ﻬ ﺮه در ﻧ ﻈ ﺮ ﻣ ﯽ ﮔ ﯿ ﺮﯾ ﻢ‪ .‬ﺳ ﭙ ﺲ از ﻣ ﺎﺑ ﻘ ﯽ‬
‫ﻣﻬﺮه ھﺎی ﺟﻌﺒﻪ دو ﻣﻬﺮه دﯾﮕﺮ اﻧﺘﺨﺎب ﻣﯽ ﮐﻨﯿﻢ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ Y‬را ﺑﺮاﺑﺮ ﺑﺎ ﺗﻌﺪاد ﻣﻬﺮه ھﺎی ﺳﻔﯿﺪ ﻣﺸﺎھﺪه‬
‫ﺷﺪه در اﯾﻦ دو ﻣﻬﺮه اﻧﺘﺨﺎﺑﯽ ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام ) ‪ (X, Y‬را ﺑﺪﺳﺖ آورﯾﺪ و ) ‪E(X ۲ Y‬‬
‫را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﻃﺒﻖ ﺗﻌﺎرﯾﻒ ﺻﻮرت ﻣﺴﺎﻟﻪ دارﯾﻢ‪ SX = {۰, ۱} :‬و }‪.SY = {۰, ۱, ۲‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪ ‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۳‬‬ ‫‪۱‬‬
‫= )‪fX,Y (۰, ۰) = P(X = ۰, Y = ۰) = P(X = ۰)P(Y = ۰|X = ۰‬‬ ‫=‪× ‬‬ ‫=‬
‫‪۵‬‬ ‫‪۴‬‬ ‫‪۳۰ ۱۰‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪ ‬‬
‫‪۳‬‬
‫‪ ‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۶‬‬ ‫‪۲‬‬
‫= )‪fX,Y (۱, ۰) = P(X = ۱, Y = ۰) = P(X = ۱)P(Y = ۰|X = ۱‬‬ ‫=‪× ‬‬ ‫=‬
‫‪۵‬‬ ‫‪۴‬‬ ‫‪۳۰ ۱۰‬‬
‫‪ ‬‬
‫‪۲‬‬
‫‪..‬‬
‫‪.‬‬

‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫)‪fY (y‬‬
‫‪y‬‬
‫‪۰‬‬ ‫‪۰٫ ۱ ۰٫ ۲‬‬ ‫‪۰٫ ۳‬‬
‫‪۱‬‬ ‫‪۰٫ ۴ ۰٫ ۲‬‬ ‫‪۰٫ ۶‬‬
‫‪۲‬‬ ‫‪۰٫ ۱‬‬ ‫‪۰‬‬ ‫‪۰٫ ۱‬‬
‫)‪fX (x‬‬ ‫‪۰٫ ۶ ۰٫ ۴‬‬ ‫‪١‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬


‫∑‬
‫∑ ‪۱‬‬
‫‪۲‬‬
‫= ) ‪E(X ۲ Y‬‬ ‫)‪x۲ yfX,Y (x, y‬‬
‫‪x=۰ y=۰‬‬

‫‪= (۰)(۰٫ ۱) + (۰)(۰٫ ۴) + (۰)(۰٫ ۱) + (۰)(۰٫ ۲) + (۱)(۰٫ ۲) + (۲)(۰) = ۰٫ ۲‬‬

‫‪۴۶‬‬
‫‪X+۱‬‬
‫‪Y‬‬
‫ﻣﺜﺎل ‪ .١۶-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل زﯾﺮ ﺑﺎﺷﺪ‪ .‬اﻣﯿﺪ رﯾﺎﺿﯽ‬
‫‪‬‬ ‫را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫‪ ۱۶y if x > ۲, ۰ < y < ۱‬‬
‫‪x۳‬‬
‫= )‪fX,Y (x, y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬
‫ﺣﻞ‪:‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫‪X +۱‬‬ ‫‪x+۱‬‬
‫(‪E‬‬ ‫=)‬ ‫‪fX,Y (x, y)dydx‬‬
‫‪Y‬‬ ‫∞‪−∞ −‬‬ ‫‪y‬‬
‫∫‬‫‪∞∫ ۱‬‬
‫‪x + ۱ ۱۶y‬‬
‫=‬ ‫(‬ ‫‪) ۳ dydx‬‬
‫‪۲‬‬ ‫‪۰‬‬ ‫‪y‬‬ ‫‪x‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫‪۱‬‬
‫)‪۱۶(x + ۱‬‬
‫=‬ ‫‪dydx‬‬
‫‪x۳‬‬
‫∞‪∫۲‬‬ ‫‪۰‬‬
‫‪۱‬‬ ‫‪۱‬‬
‫=‬ ‫(‪۱۶‬‬ ‫‪+‬‬ ‫‪)(y|۱۰ )dx‬‬
‫‪۲‬‬ ‫‪x۲‬‬ ‫‪x۳‬‬
‫‪−۱‬‬ ‫∞ ‪۱‬‬
‫(‪= ۱۶‬‬ ‫‪−‬‬ ‫|)‬
‫‪x‬‬ ‫‪۲x۲ ۲‬‬
‫‪−۱ ۱‬‬ ‫‪۵‬‬
‫( ‪= ۱۶(۰ −‬‬ ‫‪− )) = ۱۶ × = ۱۰‬‬
‫‪۲‬‬ ‫‪۸‬‬ ‫‪۸‬‬

‫‪۴٧‬‬
‫‪ ٣.٣‬اﻣﯿﺪ رﯾﺎﺿﯽ ﺷﺮﻃﯽ‬
‫ﻓﺮض ﮐﻨﯿﺪ ‪ X‬و ‪ Y‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎﺷﻨﺪ‪ .‬اﻣﯿﺪ رﯾﺎﺿﯽ ‪ X r‬ﺑﻪ ﺷﺮط ‪ Y‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑‬
‫= )‪E(X r |Y = y‬‬ ‫)‪xr fX|Y (x|y‬‬
‫‪x‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= ) ‪E(X |Y‬‬
‫‪r‬‬
‫‪xr fX|Y (x|y)dx‬‬
‫∞‪−‬‬

‫ﺑﻪ ھﻤﯿﻦ ﺗﺮﺗﯿﺐ اﻣﯿﺪ رﯾﺎﺿﯽ ‪ Y r‬ﺑﻪ ﺷﺮط ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑‬
‫= )‪E(Y r |X = x‬‬ ‫)‪y r fY |X (y|x‬‬
‫‪x‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= )‪E(Y r |X‬‬ ‫‪y r fY |X (y|x)dy‬‬
‫∞‪−‬‬

‫ﻣﺜﺎل ‪ .١٧-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺗﻮام زﯾﺮ ﺑﺎﺷﻨﺪ‪ E(X ۲ |Y = ۳) .‬را‬
‫ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪x‬‬
‫)‪٢ ٣ ۴ fY (y‬‬
‫‪y‬‬
‫‪۱‬‬ ‫‪۱‬‬ ‫‪۲‬‬
‫‪۲‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۰‬‬ ‫‪۸‬‬
‫‪۱‬‬ ‫‪۲‬‬ ‫‪۱‬‬ ‫‪۴‬‬
‫‪۳‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۸‬‬
‫‪۱‬‬ ‫‪۱‬‬ ‫‪۲‬‬
‫‪۴‬‬ ‫‪۰‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۸‬‬
‫‪۲‬‬ ‫‪۴‬‬ ‫‪۲‬‬
‫)‪fX (x‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۸‬‬ ‫‪۱‬‬

‫ﺣﻞ‪ :‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ دارﯾﻢ‬


‫)‪fX,Y (x, ۳‬‬ ‫)‪fX,Y (x, ۳‬‬
‫= )‪fX|Y (x|۳‬‬ ‫=‬ ‫‪۴‬‬
‫)‪fY (۳‬‬ ‫‪۸‬‬

‫‪۴٨‬‬
‫ﭘﺲ‬
۱
fX,Y (۲, ۳) ۱
fX|Y (۲|۳) = ۴
= ۸
۴
=
۸ ۸
۴
۲
fX,Y (۳, ۳) ۲
fX|Y (۳|۳) = ۴
= ۸
۴
=
۸ ۸
۴
۱
fX,Y (۴, ۳) ۱
fX|Y (۴|۳) = ۴
= ۸
۴
=
۸ ۸
۴

‫و ﺑﻨﺎﺑﺮاﯾﻦ‬

۴
E(X |Y = ۳) =
۲
x۲ fX|Y (x|۳)
x=۲
۱ ۲ ۱
= ۲۲ ( ) + ۳۲ ( ) + ۴۲ ( )
۴ ۴ ۴
۳۸
= = ۹٫ ۵
۴
‫ را ﺑ ﺪﺳ ﺖ‬E(X ۲ |Y ) ،‫ ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎ ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ ﺗ ﻮام زﯾ ﺮ ﺑ ﺎﺷ ﻨ ﺪ‬Y ‫ و‬X ‫ ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬.١٨-٣ ‫ﻣ ﺜ ﺎل‬
 .‫آورﯾﺪ‬
e−y if ۰ < x < y < +∞
fX,Y (x, y) =
 ۰ o.w

:‫ ﻃﺒﻖ ﺗﻌﺮﯾﻒ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬:‫ﺣﻞ‬


∫ ∞
fY (y) = fX,Y (x, y)dx
∫−∞
y
= e−y dx
۰

= xe−y |y۰ = ye−y , y>۰



ye−y if ۰ < y < ∞
=⇒fY (y) =
 ۰ o.w

‫و ﺑﻨﺎﺑﺮاﯾﻦ دارﯾﻢ‬
fX,Y (x, y) e−y ۱
fX|Y (x|y) = = −y = , ۰ < x < y < ∞
fY (y) ye y
∫ y ۳
۱ ۱ x y۲
=⇒E(X ۲ |Y ) = x۲ ( )dx = ( )( )|y۰ =
۰ y y ۳ ۳

۴٩
‫‪ ۴.٣‬ﺧﻮاص اﻣﯿﺪ رﯾﺎﺿﯽ‬
‫‪ .١‬اﮔﺮ ‪ c‬ﯾﮏ ﻋﺪد ﺛﺎﺑﺖ ﺑﺎﺷﺪ‪ ،‬آن ﮔﺎه ‪.E(c) = c‬‬

‫اﺛﺒﺎت‪ .‬ﻓﺮض ﮐﻨﯿﺪ ‪ c‬ﻣﻘﺪار ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دﻟﺨﻮاه ﺑﺎﺷﺪ ﮐﻪ آن را ﺑﺎ ‪ X‬ﻧﺸﺎن ﻣﯽ دھﯿﻢ‪ .‬دارﯾﻢ‪:‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬ ‫∑‬
‫= )‪E(c‬‬ ‫‪cfX (x) = c‬‬ ‫‪fX (x) = c × ۱ = c‬‬
‫‪x‬‬ ‫‪x‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= )‪E(c‬‬ ‫‪cfX (x)dx = c‬‬ ‫‪fX (x)dx = c × ۱ = c‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫‪ .٢‬اﮔﺮ )‪ g(X‬و )‪ h(X‬ﺗﻮاﺑﻌﯽ از ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﺑﻮده و ‪ a‬و ‪ b‬دو ﻣﻘﺪار ﺛﺎﺑﺖ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬

‫))‪E(ag(X) + bh(X)) = aE(g(X)) + bE(h(X‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ اﻣﯿﺪ رﯾﺎﺿﯽ دارﯾﻢ‪:‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∑‬
‫= ))‪E(ag(X) + bh(X‬‬ ‫)‪(ag(x) + bh(x))fX (x‬‬
‫‪x‬‬
‫∑‬ ‫∑‬
‫=‬ ‫‪ag(x)fX (x) +‬‬ ‫)‪bh(x)fX (x‬‬
‫‪x‬‬ ‫‪x‬‬
‫∑‬ ‫∑‬
‫‪=a‬‬ ‫‪g(x)fX (x) + b‬‬ ‫)‪h(x)fX (x‬‬
‫‪x‬‬ ‫‪x‬‬

‫))‪= aE(g(X)) + bE(h(X‬‬

‫• اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬
‫= ))‪E(ag(X) + bh(X‬‬ ‫‪(ag(x) + bh(x))fX (x)dx‬‬
‫∞‪∫−‬‬
‫∞‬ ‫∞ ∫‬
‫=‬ ‫‪ag(x)fX (x)dx +‬‬ ‫‪bh(x)fX (x)dx‬‬
‫∞‪−‬‬ ‫∞‪−‬‬
‫∞ ∫‬ ‫∞ ∫‬
‫‪=a‬‬ ‫‪g(x)fX (x)dx + b‬‬ ‫‪h(x)fX (x)dx‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫))‪= aE(g(X)) + bE(h(X‬‬

‫‪۵٠‬‬
‫‪ .٣‬اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ و ‪ a‬و ‪ b‬اﻋﺪاد ﺛﺎﺑﺖ ﺑﺎﺷﻨﺪ آن ﮔﺎه ‪.E(aX + b) = aE(X) + b‬‬

‫اﺛﺒﺎت‪ .‬ﺑﺮای اﺛﺒﺎت ﮐﺎﻓﯽ اﺳﺖ در ﺧﺎﺻﯿﺖ دوم‪ ،‬ﺟﺎﯾﮕﺬاری ‪ g(X) = X‬و ‪ h(X) = ۱‬را اﻧﺠﺎم دھﯿﻢ‪.‬‬

‫‪ .۴‬اﮔ ﺮ ) ‪ g(X, Y‬و ) ‪ h(X, Y‬ﺗ ﻮاﺑ ﻌ ﯽ از ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬و ‪ Y‬ﺑ ﻮده و ‪ a‬و ‪ b‬دو ﻣ ﻘ ﺪار ﺛ ﺎﺑ ﺖ‬
‫ﺑﺎﺷﻨﺪ آن ﮔﺎه‬
‫)) ‪E(ag(X, Y ) + bh(X, Y )) = aE(g(X, Y )) + bE(h(X, Y‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ دارﯾﻢ‪:‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑∑‬
‫= )) ‪E(ag(X, Y ) + bh(X, Y‬‬ ‫)‪(ag(x, y) + bh(x, y))fX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬
‫∑∑‬ ‫∑∑‬
‫=‬ ‫‪ag(x, y)fX,Y (x) +‬‬ ‫)‪bh(x, y)fX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬ ‫‪x‬‬ ‫‪y‬‬
‫∑∑‬ ‫∑∑‬
‫‪=a‬‬ ‫‪g(x, y)fX,Y (x) + b‬‬ ‫)‪h(x, y)fX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬ ‫‪x‬‬ ‫‪y‬‬

‫)) ‪= aE(g(X, Y )) + bE(h(X, Y‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= )) ‪E(ag(X, Y ) + bh(X, Y‬‬ ‫‪(ag(x, y) + bh(x))fX,Y (x, y)dxdy‬‬
‫∞‪∫−‬‬
‫∞‬ ‫∞‪∫−‬‬
‫∞‬ ‫∞ ∫∞ ∫‬
‫=‬ ‫‪ag(x, y)fX,Y (x, y)dxdy +‬‬ ‫‪bh(x, y)fX,Y (x, y)dxdy‬‬
‫∞‪−∞ −‬‬ ‫∞‪−∞ −‬‬
‫∞ ∫∞ ∫‬ ‫∞ ∫∞ ∫‬
‫‪=a‬‬ ‫‪g(x, y)fX,Y (x, y)dxdy + b‬‬ ‫‪h(x, y)fX,Y (x, y)dxdy‬‬
‫∞‪−‬‬ ‫∞‪−‬‬ ‫∞‪−‬‬ ‫∞‪−‬‬

‫)) ‪= aE(g(X, Y )) + bE(h(X, Y‬‬

‫‪ .۵‬اﮔﺮ ‪ X‬و ‪ Y‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دﻟﺨﻮاه ﺑﺎﺷﻨﺪ آن ﮔﺎه ) ‪.E(X + Y ) = E(X) + E(Y‬‬

‫اﺛﺒﺎت‪ .‬ﺑ ﺮای اﺛ ﺒ ﺎت ﮐ ﺎﻓ ﯽ اﺳ ﺖ در ﺧ ﺎﺻ ﯿ ﺖ ﭼ ﻬ ﺎرم ﻗ ﺮار دھ ﯿ ﻢ‪ g(X, Y ) = X ،a = b = ۱ :‬و‬


‫‪.h(X, Y ) = Y‬‬

‫‪۵١‬‬
‫‪ .۶‬اﮔﺮ ‪ X‬و ‪ Y‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آن ﮔﺎه ) ‪.E(XY ) = E(X)E(Y‬‬

‫اﺛﺒﺎت‪ .‬ﻣﯽ داﻧﯿﻢ ﮐﻪ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ اﮔﺮ و ﺗﻨﻬﺎ اﮔﺮ )‪ .fX,Y (x, y) = fX (x)fY (y‬ﺑﻨﺎﺑﺮاﯾﻦ‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∑∑‬
‫= ) ‪E(XY‬‬ ‫)‪xyfX,Y (x, y‬‬
‫‪x‬‬ ‫‪y‬‬
‫∑∑‬
‫=‬ ‫)‪xyfX (x)fY (y‬‬
‫‪x‬‬ ‫‪y‬‬
‫(‬ ‫()‬ ‫)‬
‫∑‬ ‫∑‬
‫=‬ ‫)‪xfX (x‬‬ ‫)‪yfY (y‬‬
‫‪x‬‬ ‫‪y‬‬

‫) ‪= E(X)E(Y‬‬

‫• اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= ) ‪E(XY‬‬ ‫‪xyfX,Y (x, y)dxdy‬‬
‫∞‪∫−‬‬
‫∞‬ ‫∞‪∫−‬‬
‫∞‬
‫=‬ ‫‪xyfX (x)fY (y)dxdy‬‬
‫∞‪(−‬‬
‫∞‪∫ ∞ −‬‬ ‫∞ ∫( )‬ ‫)‬
‫=‬ ‫‪xfX (x)dx‬‬ ‫‪yfY (y)dy‬‬
‫∞‪−‬‬ ‫∞‪−‬‬

‫) ‪= E(X)E(Y‬‬

‫ھﻤﭽﻨﯿﻦ اﮔﺮ ‪Xi‬ھﺎ ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آن ﮔﺎه‬


‫∏‬
‫‪n‬‬ ‫∏‬
‫‪n‬‬
‫= ) ‪E( Xi‬‬ ‫) ‪E(Xi‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬

‫• ھﻤﺎن ﻃﻮر ﮐﻪ در اﺛﺒﺎت ھﺎ ھﻢ ﻣﺸﺎھﺪه ﺷﺪ‪ ،‬ﺧﻮاص اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺮای ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﭘﯿﻮﺳﺘﻪ و ﮔﺴﺴﺘﻪ‬
‫ﺑﺮﻗﺮار اﺳﺖ‪.‬‬
‫• ﺗ ﻮﺟ ﻪ ﮐ ﻨ ﯿ ﺪ ﮐ ﻪ ﻋ ﮑ ﺲ ﺧ ﺎﺻ ﯿ ﺖ ﺷ ﺸ ﻢ ﺑ ﺮﻗ ﺮار ﻧ ﯿ ﺴ ﺖ ﯾ ﻌ ﻨ ﯽ اﮔ ﺮ ﺑ ﺮای دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬و ‪ ،Y‬ﺗ ﺴ ﺎوی‬
‫) ‪ E(XY ) = E(X)E(Y‬ﺑﺮﻗﺮار ﺑﺎﺷﺪ آن ﮔﺎه ﻧﻤﯽ ﺗﻮان ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ ﮐﻪ اﯾﻦ دو ﻣﺘﻐﯿﺮ اﻟﺰاﻣﺎ ﻣﺴﺘﻘﻞ ھﺴﺘﻨﺪ‪.‬‬

‫‪۵٢‬‬
‫‪ ۵.٣‬وارﯾﺎﻧﺲ و ﺧﻮاص آن‬
‫ھﻤﺎﻧﻄﻮر ﮐﻪ در اﺑﺘﺪای ﻓﺼﻞ ﻧﯿﺰ ﺗﻮﺿﯿﺢ داده ﺷﺪ‪ ،‬اﮔﺮ ‪ X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل )‪ fX (x‬و‬
‫ﺗﺎﺑﻊ ﺗﻮزﯾﻊ )‪ FX (x‬ﺑﺎﺷﺪ‪ E(X) ،‬ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎری اﺳﺖ ﮐﻪ ﻗﺒﻞ از وﻗﻮع آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ﻣﻮرد ﺗﻮﺟﻪ ﻗﺮار‬
‫ﻣﯽ ﮔﯿﺮد‪ .‬اﻣﺎ ﻧﺘﺎﯾﺞ ﯾﮏ آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ ﻣﯽ ﺗﻮاﻧﺪ ﻣﺘﻔﺎوت ﺑﺎ ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎر )اﻣﯿﺪ رﯾﺎﺿﯽ( )‪ E(X‬ﺑﺎﺷﺪ‬
‫ﮐﻪ اﯾﻦ ﺗﻔﺎوت را ﻣﯽ ﺗﻮان ﺑﻪ ﺻﻮرت |)‪ |X − E(X‬ﻧﻤﺎﯾﺶ داد ﮐﻪ اﻧﺤﺮاف از ﻣﯿﺎﻧﮕﯿﻦ ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮد‪.‬‬
‫واﺿﺢ اﺳﺖ ﮐﻪ |)‪ |X − E(X‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ اﺳﺖ و ﺑﻨﺎﺑﺮاﯾﻦ ﻋﻼﻗﻤﻨﺪﯾﻢ ﺗﺎ ﻣﯿﺰان اﻧﺤﺮاف از ﻣﯿﺎﻧﮕﯿﻦ‬
‫را ﺑﻪ ﻃﻮر ﻣﺘﻮﺳﻂ ﺑﺪﺳﺖ آورﯾﻢ‪ ،‬ﯾﻌﻨﯽ‬
‫ﻣﺘﻮﺳﻂ ﻣﯿﺰان اﻧﺤﺮاف ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬از ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎر )‪E(|X − E(X)|) :E(X‬‬
‫اﻣﺎ از آﻧﺠﺎﯾﯽ ﮐﻪ ﮐﺎر ﮐﺮدن ﺑﺎ ﻗﺪر ﻣﻄﻠﻖ دﺷﻮار اﺳﺖ‪ ،‬ﺑﺠﺎی ﺗﺎﺑﻊ ﻗﺪر ﻣﻄﻠﻖ از ﺗﻮان دوم اﺳﺘﻔﺎده ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﯾﻌﻨﯽ‬

‫‪E(X − E(X))۲‬‬

‫ﮐﻪ آن را وارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﻣﯽ ﻧﺎﻣﻨﺪ و ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﻤﺎﯾﺶ داده ﻣﯽ ﺷﻮد‬

‫‪σ ۲ = Var(X) = E(X − E(X))۲ = E(X − µX )۲‬‬ ‫)‪(١-٣‬‬

‫ﺑﺮای ﻣﺤﺎﺳﺒﻪ وارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ ،X‬ﻣﯽ ﺗﻮان راﺑﻄﻪ )‪ (١-٣‬را ﺑﻪ ﺷﮑﻞ زﯾﺮ ﺳﺎده ﮐﺮد‬

‫‪σ ۲ = Var(X) = E(X − µX )۲‬‬

‫) ‪= E(X ۲ + µ۲X − ۲XµX‬‬

‫) ‪= E(X ۲ ) + E(µ۲X ) − ۲E(XµX‬‬

‫)‪= E(X ۲ ) + µ۲X − ۲µX E(X‬‬

‫‪= E(X ۲ ) + µ۲X − ۲µ۲X‬‬

‫‪= E(X ۲ ) − µ۲X‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ )‪.Var(X) = E(X ۲ ) − µ۲X = E(X ۲ ) − E۲ (X‬‬

‫‪۵٣‬‬
‫ﻣﺜﺎل ‪ .١٩-٣‬وارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل زﯾﺮ را ﭘﯿﺪا ﮐﻨﯿﺪ‪.‬‬
‫‪‬‬
‫‪۴xe−۲x if x > ۰‬‬
‫= )‪fX (x‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫ﺣﻞ‪:‬‬
‫∫‬ ‫∞‬
‫= )‪µ = E(X‬‬ ‫∞| ‪x(۴xe−۲x )dx = −(۱ + ۲x + ۲x۲ )e−۲x‬‬
‫‪۰ =۱‬‬
‫∞ ∫‬ ‫‪۰‬‬
‫‪۱‬‬ ‫‪۳‬‬
‫‪۲‬‬
‫= ) ‪E(X‬‬ ‫∞| ‪x۲ (۴xe−۲x )dx = − (۳ + ۶x + ۶x۲ + ۴x۳ )e−۲x‬‬
‫= ‪۰‬‬
‫‪۰‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫‪۳‬‬ ‫‪۱‬‬
‫= ‪=⇒Var(X) = E(X ۲ ) − µ۲‬‬ ‫= ‪− ۱۲‬‬
‫‪۲‬‬ ‫‪۲‬‬

‫‪ ١.۵.٣‬ﺧﻮاص وارﯾﺎﻧﺲ‬
‫ﻓﺮض ﮐﻨﯿﺪ ‪ b ،a‬و ‪ c‬اﻋﺪاد ﺛﺎﺑﺖ و ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺑﺎﺷﻨﺪ‪ .‬در اﯾﻦ ﺻﻮرت دارﯾﻢ‪:‬‬
‫‪.Var(c) = ۰ .١‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺧﺎﺻﯿﺖ اﻣﯿﺪ رﯾﺎﺿﯽ دارﯾﻢ‪:‬‬

‫‪Var(c) = E(c − E(c))۲ = E(c − c)۲ = E(۰) = ۰‬‬

‫‪.Var(aX + b) = a۲ Var(X) .٢‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺧﺎﺻﯿﺖ اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫‪Var(aX + b) = E ((aX + b) − E(aX + b))۲‬‬

‫‪= E ((aX + b) − (aE(X) + b))۲‬‬

‫‪= E (aX − aE(X))۲‬‬


‫(‬ ‫)‬
‫‪= E a۲ (X − E(X))۲‬‬

‫‪= a۲ E (X − E(X))۲‬‬

‫)‪= a۲ Var(X‬‬

‫‪ .٣‬اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آن ﮔﺎه ) ‪.Var(aX + bY + c) = a۲ Var(X) + b۲ Var(Y‬‬

‫‪۵۴‬‬
‫ﻣﺜﺎل ‪ .٢٠-٣‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺗﻮام ) ‪ (X, Y‬دارای ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮام زﯾﺮ ﺑﺎﺷﻨﺪ‪ .‬وارﯾﺎﻧﺲ‬
‫‪ ۳X + ۲‬و ‪ ۲ − ۴Y‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫)‪fY (y‬‬
‫‪y‬‬
‫‪۰‬‬ ‫‪۰٫ ۱ ۰٫ ۲‬‬ ‫‪۰٫ ۳‬‬
‫‪۱‬‬ ‫‪۰٫ ۴ ۰٫ ۲‬‬ ‫‪۰٫ ۶‬‬
‫‪۲‬‬ ‫‪۰٫ ۱‬‬ ‫‪۰‬‬ ‫‪۰٫ ۱‬‬
‫)‪fX (x‬‬ ‫‪۰٫ ۶ ۰٫ ۴‬‬ ‫‪١‬‬

‫ﺣﻞ‪:‬‬

‫∑‬
‫‪۱‬‬
‫= )‪E(X‬‬ ‫‪xfX (x) = (۰)(۰٫ ۶) + (۱)(۰٫ ۴) = ۰٫ ۴‬‬
‫‪x=۰‬‬
‫∑‬
‫‪۱‬‬
‫‪۲‬‬
‫= ) ‪E(X‬‬ ‫‪x۲ fX (x) = (۰۲ )(۰٫ ۶) + (۱۲ )(۰٫ ۴) = ۰٫ ۴‬‬
‫‪x=۰‬‬

‫‪Var(X) = E(X ۲ ) − E۲ (X) = ۰٫ ۴ − (۰٫ ۴)۲ = ۰٫ ۲۴‬‬


‫∑‬
‫‪۲‬‬
‫= ) ‪E(Y‬‬ ‫‪yfY (y) = (۰)(۰٫ ۳) + (۱)(۰٫ ۶) + (۲)(۰٫ ۱) = ۰٫ ۸‬‬
‫‪y=۰‬‬

‫∑‬
‫‪۲‬‬
‫‪۲‬‬
‫= ) ‪E(Y‬‬ ‫‪y ۲ fY (y) = (۰)(۰٫ ۳) + (۱)(۰٫ ۶) + (۴)(۰٫ ۱) = ۱‬‬
‫‪y=۰‬‬

‫‪Var(Y ) = E(Y ۲ ) − E۲ (Y ) = ۱ − (۰٫ ۸)۲ = ۰٫ ۳۶‬‬


‫‪‬‬
‫‪ Var(۳X + ۲) = ۹Var(X) = ۹ × ۰٫ ۲۴ = ۲٫ ۱۶‬‬
‫⇒=‬
‫‪Var(۲ − ۴Y ) = ۱۶Var(Y ) = ۱۶ × ۰٫ ۳۶ = ۵٫ ۷۶‬‬

‫‪۵۵‬‬
‫‪ ٢.۵.٣‬وارﯾﺎﻧﺲ ﺷﺮﻃﯽ‬
‫ﻓﺮض ﮐﻨﯿﺪ ‪ X‬و ‪ Y‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎﺷﻨﺪ‪ .‬وارﯾﺎﻧﺲ ﺷﺮﻃﯽ ‪ Y‬ﺑﻪ ﺷﺮط ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫)‪Var(Y |X) = E(Y ۲ |X) − E۲ (Y |X‬‬

‫ﻣﺜﺎل ‪ .٢١-٣‬در ﻣﺜﺎل ‪ Var(X|Y ) ،١٢-٣‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬


‫ﺣﻞ‪ :‬ﻃﺒﻖ ﻣﺜﺎل ‪ ١٢-٣‬دارﯾﻢ‪:‬‬
‫‪‬‬ ‫‪‬‬
‫∞‪e−y if ۰ < x < y < +‬‬ ‫∞ < ‪ye−y if ۰ < y‬‬
‫= )‪fX,Y (x, y‬‬ ‫‪,‬‬ ‫= )‪fY (y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬ ‫‪ ۰‬‬ ‫‪o.w‬‬

‫= )‪.fX|Y (x|y‬‬ ‫)‪fX,Y (x,y‬‬


‫)‪fY (y‬‬
‫‪= ۱y ,‬‬ ‫و ھﻤﭽﻨﯿﻦ ∞ < ‪۰ < x < y‬‬
‫∫‬ ‫∞‬ ‫∫‬
‫‪۱‬‬ ‫‪y‬‬
‫‪۱ x۲‬‬ ‫‪y‬‬
‫= ) ‪E(X|Y‬‬ ‫= ‪xfX|Y (x|y)dx‬‬ ‫= ‪x( )dx = ( )( )|y۰‬‬
‫∞‪−‬‬ ‫‪۰‬‬ ‫‪y‬‬ ‫‪y ۲‬‬ ‫‪۲‬‬
‫∞ ∫‬ ‫‪∫ y‬‬
‫‪۱‬‬ ‫‪۱ x۳‬‬ ‫‪y۲‬‬
‫= ) ‪E(X ۲ |Y‬‬ ‫= ‪x۲ fX|Y (x|y)dx‬‬ ‫= ‪x۲ ( )dx = ( )( )|y۰‬‬
‫∞‪−‬‬ ‫‪۰‬‬ ‫‪y‬‬ ‫‪y ۳‬‬ ‫‪۳‬‬
‫‪y‬‬ ‫‪۲‬‬ ‫‪y‬‬ ‫‪y‬‬ ‫‪۲‬‬
‫= ) ‪=⇒Var(X|Y ) = E(X ۲ |Y ) − E۲ (X|Y‬‬ ‫= ‪− ( )۲‬‬ ‫‪y>x>۰‬‬
‫‪۳‬‬ ‫‪۲‬‬ ‫‪۱۲‬‬

‫‪ ۶.٣‬ﮐﻮارﯾﺎﻧﺲ و ﺧﻮاص آن‬


‫ﻓﺮض ﮐﻨﯿﺪ ﻋﻼﻗﻤﻨﺪ ﺑﻪ ﺑﺮرﺳﯽ وﺟﻮد ارﺗﺒﺎط ﺧﻄﯽ ﺑﯿﻦ ﻣﺘﻐﯿﺮ ﺗﺼﺎﻓﯽ ‪ X‬و ‪ Y‬ﺑﺎﺷﯿﻢ‪ .‬در واﻗﻊ وﺟﻮد ارﺗﺒﺎط ﺧﻄﯽ‬
‫ﺑﺪﯾﻦ ﻣﻌﻨﺎﺳﺖ ﮐﻪ آﯾﺎ اﻓﺰاﯾﺶ ‪ Y ،X‬اﻓﺰاﯾﺶ ﭘﯿﺪا ﺧﻮاھﺪ ﮐﺮد و ﯾﺎ ﮐﺎھﺶ ﻣﯽ ﯾﺎﺑﺪ؟‬

‫• اﮔﺮ ﺑﺎ اﻓﺰاﯾﺶ ‪ Y ،X‬ﻧﯿﺰ اﻓﺰاﯾﺶ ﯾﺎﺑﺪ‪ ،‬ﮔﻮﯾﯿﻢ ‪ X‬و ‪ Y‬دارای ﺗﻐﯿﯿﺮات ھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫• اﮔﺮ ﺑﺎ ﮐﺎھﺶ ‪ Y ،X‬ﻧﯿﺰ ﮐﺎھﺶ ﯾﺎﺑﺪ‪ ،‬ﮔﻮﯾﯿﻢ ‪ X‬و ‪ Y‬دارای ﺗﻐﯿﯿﺮات ھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫• اﮔﺮ ﺑﺎ اﻓﺰاﯾﺶ ‪ Y ،X‬ﮐﺎھﺶ ﯾﺎﺑﺪ‪ ،‬ﮔﻮﯾﯿﻢ ‪ X‬و ‪ Y‬دارای ﺗﻐﯿﯿﺮات ﻧﺎھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫• اﮔﺮ ﺑﺎ ﮐﺎھﺶ ‪ Y ،X‬اﻓﺰاﯾﺶ ﯾﺎﺑﺪ‪ ،‬ﮔﻮﯾﯿﻢ ‪ X‬و ‪ Y‬دارای ﺗﻐﯿﯿﺮات ﻧﺎھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫ﺷﺎﯾﺎن ذﮐﺮ اﺳﺖ ﮐﻪ ﻣﻌﯿﺎر اﻓﺰاﯾﺶ ﯾﺎ ﮐﺎھﺶ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﻣﻘﺎﯾﺴﻪ آن ﺑﺎ ﻣﻘﺪار ﻣﻮرد اﻧﺘﻈﺎر )اﻣﯿﺪ‬
‫رﯾﺎﺿﯽ( اﺳﺖ‪.‬‬

‫‪۵۶‬‬
‫ﺑﺮای ﯾﺎﻓﺘﻦ اﯾﻦ ارﺗﺒﺎط اﺑﺘﺪا ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ T‬را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‬

‫)) ‪T = (X − E(X))(Y − E(Y‬‬

‫واﺿﺢ اﺳ ﺖ ﮐ ﻪ اﮔ ﺮ ‪ X‬و ‪ Y‬ھﻤ ﺴﻮ ﺑﺎﺷﻨﺪ آن ﮔ ﺎه ‪ T > ۰‬و اﮔ ﺮ ‪ X‬و ‪ Y‬ﻧﺎھﻤﺴ ﻮ ﺑﺎﺷﻨ ﺪ آن ﮔ ﺎه ‪ .T < ۰‬از آن‬
‫ﺟ ﺎﯾ ﯽ ﮐ ﻪ ‪ T‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ اﺳ ﺖ‪ ،‬ﻣ ﻘ ﺪار ﻣ ﻮرد اﻧ ﺘ ﻈ ﺎر آن را ﻣ ﺤ ﺎﺳ ﺒ ﻪ ﮐ ﺮده ﮐ ﻪ ﺑ ﻪ آن ﮐ ﻮارﯾ ﺎﻧ ﺲ ‪ X‬و ‪Y‬‬
‫ﻣﯽ ﮔﻮﯾﻨﺪ‪ .‬دارﯾﻢ‬
‫))) ‪σXY = Cov(X, Y ) = E ((X − E(X))(Y − E(Y‬‬

‫و ﺑﺮای ‪ X‬و ‪ Y‬ھﻤﺴﻮ ‪ σXY > ۰‬و ﺑﺮای ‪ X‬و ‪ Y‬ﻧﺎھﻤﺴﻮ ‪ .σXY < ۰‬ﺑﺮای اﯾﻨﮑﻪ ﻣﺤﺎﺳﺒﻪ ﮐﻮارﯾﺎﻧﺲ ﺳﺎده ﺗﺮ‬
‫ﺷﻮد‪ ،‬راﺑﻄﻪ ﺑﺎﻻ را ﻣﯽ ﺗﻮان ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺎزﻧﻮﯾﺴﯽ ﮐﺮد‪:‬‬

‫))) ‪σXY = Cov(X, Y ) = E ((X − E(X))(Y − E(Y‬‬

‫)) ‪= E (XY − XE(Y ) − Y E(X) + E(X)E(Y‬‬

‫)) ‪= E(XY ) − E(XE(Y )) − E(Y E(X)) + E(E(X)E(Y‬‬

‫) ‪= E(XY ) − E(X)E(Y ) − E(Y )E(X) + E(X)E(Y‬‬

‫) ‪= E(XY ) − E(X)E(Y‬‬

‫ﻣﺜﺎل ‪ .٢٢-٣‬در ﻣﺜﺎل ‪ ،١۴-٣‬ﮐﻮارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣﻞ‪ :‬در ﻣﺜﺎل ‪ ١۴-٣‬دارﯾﻢ‪:‬‬

‫‪x‬‬
‫‪٠‬‬ ‫‪١‬‬ ‫)‪fY (y‬‬
‫‪y‬‬
‫‪۰‬‬ ‫‪۰٫ ۱ ۰٫ ۲‬‬ ‫‪۰٫ ۳‬‬
‫‪۱‬‬ ‫‪۰٫ ۴ ۰٫ ۲‬‬ ‫‪۰٫ ۶‬‬
‫‪۲‬‬ ‫‪۰٫ ۱‬‬ ‫‪۰‬‬ ‫‪۰٫ ۱‬‬
‫)‪fX (x‬‬ ‫‪۰٫ ۶ ۰٫ ۴‬‬ ‫‪١‬‬

‫‪۵٧‬‬
‫و ھﻤﭽﻨﯿﻦ ‪ E(X) = ۰٫ ۴‬و ‪ .E(Y ) = ۰٫ ۸‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫∑‬
‫∑ ‪۱‬‬
‫‪۲‬‬
‫= ) ‪E(XY‬‬ ‫)‪xyfX,Y (x, y‬‬
‫‪x=۰ y=۰‬‬

‫)‪= (۰)(۰)(۰٫ ۱) + (۰)(۱)(۰٫ ۴) + (۰)(۲)(۰٫ ۱) + (۱)(۰)(۰٫ ۲) + (۱)(۱)(۰٫ ۲) + (۱)(۲)(۰‬‬

‫‪= ۰٫ ۲‬‬

‫‪=⇒σXY = Cov(X, Y ) = E(XY ) − E(X)E(Y ) = ۰٫ ۲ − (۰٫ ۴)(۰٫ ۸) = ۰٫ ۲ − ۰٫ ۳۲ = −۰٫ ۱۲‬‬

‫ﭼﻮن ﮐﻮارﯾﺎﻧﺲ ﻣﻨﻔﯽ ﺑﺪﺳﺖ آﻣﺪ ﭘﺲ ‪ X‬و ‪ Y‬ﻧﺎھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫‪ ١.۶.٣‬ﺧﻮاص ﮐﻮارﯾﺎﻧﺲ‬
‫ﻓﺮض ﮐﻨﯿﺪ ‪ c ،b ،a‬و ‪ d‬اﻋﺪاد ﺛﺎﺑﺖ و ‪ X‬و ‪ Y‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﺑﺎﺷﻨﺪ‪ .‬در اﯾﻦ ﺻﻮرت دارﯾﻢ‪:‬‬
‫‪.Cov(X, X) = Var(X) .١‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ دارﯾﻢ‪:‬‬

‫‪Cov(X, X) = E((X − E(X))(X − E(X))) = E(X − E(X))۲ = Var(X).‬‬

‫‪.Cov(X, Y ) = Cov(Y, X) .٢‬‬

‫اﺛﺒﺎت‪.‬‬

‫))) ‪Cov(X, Y ) = E((X − E(X))(Y − E(Y‬‬

‫)‪= E((Y − E(Y ))(X − E(X))) = Cov(Y, X‬‬

‫‪.Cov(X, c) = ۰ .٣‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ وﯾﮋﮔﯽ ھﺎی اﻣﯿﺪ رﯾﺎﺿﯽ دارﯾﻢ‪:‬‬

‫‪Cov(X, c) = E((X − E(X))(c − E(c))) = E((X − E(X))(c − c)) = E(۰) = ۰‬‬

‫‪۵٨‬‬
‫‪.Cov(aX + b, cY + d) = acCov(X, Y ) .۴‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺧﻮاص اﻣﯿﺪ رﯾﺎﺿﯽ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫)))‪Cov(aX + b, cY + d) = E((aX + b − E(aX + b))(cY + d − E(cY + d‬‬

‫))‪= E((aX + b − aE(X) − b)(cY + d − cE(Y ) − d‬‬

‫))) ‪= E (a(X − E(X))c(Y − E(Y‬‬

‫) ‪= acE((X − E(X))(Y − E(Y ))) = acCov(X, Y‬‬

‫‪ .۵‬اﮔ ﺮ ‪ X۱‬و ‪ X۲‬را ﻧ ﯿ ﺰ دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ دﻟ ﺨ ﻮاه در ﻧ ﻈ ﺮ ﺑ ﮕ ﯿ ﺮﯾ ﻢ آن ﮔ ﺎه‬


‫) ‪) .Cov(aX۱ + bX۲ , Y ) = aCov(X۱ , Y ) + bCov(X۲ , Y‬اﺛﺒﺎت ﺑﻪ ﻋﻨﻮان ﺗﻤﺮﯾﻦ(‬
‫‪ .۶‬اﮔﺮ ‪ Cov(X, Y ) = ۰‬آن ﮔﺎه ‪ X‬و ‪ Y‬ﻧﺎھﻤﺒﺴﺘﻪ ﺧﻄﯽ ھﺴﺘﻨﺪ‪.‬‬

‫ﺧ ﻮاص ﮐ ﻮارﯾ ﺎﻧ ﺲ ﻧ ﺸ ﺎن ﻣ ﯽ دھ ﺪ ﮐ ﻪ اﮔ ﺮ ﻣ ﺒ ﺪا اﻧ ﺪازه ﮔ ﯿ ﺮی ‪ X‬و ‪ Y‬ﺗ ﻐ ﯿ ﯿ ﺮ‬


‫ﮐ ﻨ ﺪ‪ ،‬ﮐ ﻮارﯾ ﺎﻧ ﺲ ﺗ ﻐ ﯿ ﯿ ﺮ ﻧ ﻤ ﯽ ﮐ ﻨ ﺪ اﻣ ﺎ اﮔ ﺮ واﺣ ﺪ اﻧ ﺪازه ﮔ ﯿ ﺮی ‪ X‬و ‪ Y‬ﺗ ﻐ ﯿ ﯿ ﺮ ﮐ ﻨ ﺪ آن ﮔ ﺎه‬
‫ﮐﻮارﯾﺎﻧﺲ ﺗﻐﯿﯿﺮ ﺧﻮاھﺪ ﮐﺮد‪.‬‬
‫ﺗ ﻮﺟ ﻪ ﮐ ﻨ ﯿ ﺪ ﮐ ﻪ ﻋ ﻼﻣ ﺖ ﮐ ﻮارﯾ ﺎﻧ ﺲ ﺗ ﻨ ﻬ ﺎ ﺑ ﺮای ﺗ ﺸ ﺨ ﯿ ﺺ ھ ﻤ ﺴ ﻮ ﺑ ﻮدن ﯾ ﺎ ﻧ ﺒ ﻮدن ‪ X‬و ‪ Y‬اھ ﻤ ﯿ ﺖ‬
‫دارد‪.‬‬

‫‪ ٧.٣‬ﺿﺮﯾﺐ ھﻤﺒﺴﺘﮕﯽ و ﺧﻮاص آن‬


‫‪X−µX‬‬
‫‪σX‬‬
‫اﮔﺮ ﺑﺠﺎی ﻣﺤﺎﺳﺒﻪ ﮐﻮارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ ،Y‬ﮐﻮارﯾﺎﻧﺲ ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ اﺳﺘﺎﻧﺪارد ﺷﺪه‬
‫را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﻢ‪ ،‬دارﯾﻢ‪:‬‬ ‫‪Y −µY‬‬
‫‪σY‬‬
‫و‬

‫‪X − µX Y − µY‬‬ ‫‪σXY‬‬


‫(‪Cov‬‬ ‫‪,‬‬ ‫=)‬
‫‪σX‬‬ ‫‪σY‬‬ ‫‪σX σY‬‬

‫ﮐﻪ آن را ﺿﺮﯾﺐ ھﻤﺒﺴﺘﮕﯽ ‪ X‬و ‪ Y‬ﻧﺎﻣﯿﺪه و ﺑﺎ ﻧﻤﺎد ‪ ρX,Y‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‪ ،‬ﯾﻌﻨﯽ‬

‫) ‪Cov(X, Y‬‬ ‫‪σXY‬‬


‫√ = ‪ρX,Y‬‬ ‫=‬
‫) ‪Var(X)Var(Y‬‬ ‫‪σX σY‬‬

‫‪۵٩‬‬
‫ﺿ ﺮﯾ ﺐ ھ ﻤ ﺒ ﺴ ﺘ ﮕ ﯽ دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ‪ X‬و ‪ Y‬ارﺗ ﺒ ﺎط ﺧ ﻄ ﯽ دو ﻣ ﺘ ﻐ ﯿ ﺮ را ﻧ ﺸ ﺎن ﻣ ﯽ دھ ﺪ و ھ ﻤ ﺎﻧ ﻨ ﺪ ﮐ ﻮارﯾ ﺎﻧ ﺲ‬
‫دارﯾﻢ‪:‬‬

‫• اﮔ ﺮ ‪ ،ρX,Y < ۰‬آن ﮔ ﺎه ﺗ ﻐ ﯿ ﯿ ﺮات ‪ X‬و ‪ Y‬در ﺧ ﻼف ﺟ ﻬ ﺖ ﯾ ﮑ ﺪﯾ ﮕ ﺮ اﺳ ﺖ و اﺻ ﻄ ﻼﺣ ﺎً ‪ X‬و ‪ Y‬ﻧ ﺎھ ﻤ ﺴ ﻮ‬


‫ھﺴﺘﻨﺪ‪.‬‬

‫• اﮔﺮ ‪ ،ρX,Y > ۰‬آن ﮔﺎه ﺗﻐﯿﯿﺮات ‪ X‬و ‪ Y‬در ﺟﻬﺖ ﯾﮑﺪﯾﮕﺮ اﺳﺖ و اﺻﻄﻼﺣﺎً ‪ X‬و ‪ Y‬ھﻤﺴﻮ ھﺴﺘﻨﺪ‪.‬‬

‫• اﮔﺮ ‪ ،ρX,Y = ۰‬آن ﮔﺎه ‪ X‬و ‪ Y‬ﻧﺎھﻤﺒﺴﺘﻪ ﺧﻄﯽ ھﺴﺘﻨﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .٢٣-٣‬در ﻣﺜﺎل ‪ ،١۴-٣‬ﺿﺮﯾﺐ ھﻤﺒﺴﺘﮕﯽ ‪ X‬و ‪ Y‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬


‫ﺣ ﻞ‪ :‬ﻃ ﺒ ﻖ ﻣ ﺜ ﺎل ‪ Var(X) = ۰٫ ۲۴ ،١۴-٣‬و ‪ .Var(Y ) = ۰٫ ۳۶‬ھ ﻤ ﭽ ﻨ ﯿ ﻦ در ﻣ ﺜ ﺎل ‪ ١۶-٣‬ﺑ ﺪﺳ ﺖ‬
‫آوردﯾﻢ‪ .Cov(X, Y ) = −۰٫ ۱۲ :‬ﺑﻨﺎﺑﺮاﯾﻦ‬

‫) ‪Cov(X, Y‬‬ ‫‪−۰٫ ۱۲‬‬


‫√ = ‪ρX,Y‬‬ ‫√=‬ ‫‪= −۰٫ ۴۰۸‬‬
‫) ‪Var(X)Var(Y‬‬ ‫)‪(۰٫ ۲۴)(۰٫ ۳۶‬‬

‫ﭘﺲ ﺗﻐﯿﯿﺮات ‪ X‬و ‪ Y‬در ﺧﻼف ﺟﻬﺖ ﯾﮑﺪﯾﮕﺮ اﺳﺖ‪.‬‬

‫ﻣﺜﺎل ‪ .٢۴-٣‬ﻓﺮض ﮐﻨﯿﺪ ‪ X‬و ‪ Y‬دو ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ زﯾﺮ ﺑﺎﺷﻨﺪ‪.‬‬
‫‪‬‬
‫∞ < ‪e−y if ۰ < x < y‬‬
‫= )‪fX,Y (x, y‬‬
‫‪ ۰‬‬ ‫‪o.w‬‬

‫ﺿﺮﯾﺐ ھﻤﺒﺴﺘﮕﯽ ‪ X‬و ‪ Y‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬


‫ﺣ ﻞ‪ :‬در ﺣ ﻞ اﻧ ﺘ ﮕ ﺮال ھ ﺎی زﯾ ﺮ از اﯾ ﻦ ﻧ ﮑ ﺘ ﻪ اﺳ ﺘ ﻔ ﺎده ﻣ ﯽ ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ ﻃ ﺒ ﻖ اﻧ ﺘ ﮕ ﺮال و ﺧ ﻮاص آن‪،‬‬
‫∞∫‬
‫‪ .‬دارﯾﻢ‪:‬‬ ‫‪۰‬‬ ‫!‪xn e−x dx = n‬‬
‫∫‬ ‫∞‬ ‫∫‬ ‫∞‬
‫= ) ‪E(XY‬‬ ‫‪xyfX,Y (x, y)dxdy‬‬
‫∞‪∫−‬‬‫∞‬ ‫∫‬ ‫∞‪−‬‬
‫‪y‬‬
‫=‬ ‫‪xye−y dxdy‬‬
‫) ‪∫۰ ∞ ۰ ( ۲‬‬
‫‪x y‬‬
‫=‬ ‫‪ye−y‬‬ ‫‪| dy‬‬
‫‪۰‬‬ ‫‪۲ ۰‬‬
‫∫‬
‫‪۱ ∞ ۳ −y‬‬ ‫!‪۳‬‬
‫=‬ ‫= ‪y e dy‬‬ ‫‪=۳‬‬
‫‪۲‬‬ ‫‪۰‬‬ ‫‪۲‬‬

‫‪۶٠‬‬
:‫ را ﺑﺪﺳﺖ آورﯾﻢ‬Y ‫ و‬X ‫ ﺑﺎﯾﺪ ﺗﻮاﺑﻊ ﭼﮕﺎﻟﯽ ﺣﺎﺷﯿﻪ ای‬Y ‫ و‬X ‫ﺑﺮای ﻣﺤﺎﺳﺒﻪ وارﯾﺎﻧﺲ‬
∫ ∞ ∫ ∞
fX (x) = fX,Y (x, y)dy = e−y dy = −e−y |∞ −x
x = e , x>۰
∫−∞
∞ ∫ x
y
fY (y) = fX,Y (x, y)dx = e−y dx = −e−y x|y۰ = ye−y , y > ۰.
−∞ ۰

:‫دارﯾﻢ‬
∫ ∞ ∫ ∞
E(X) = xfX (x)dx = xe−x dx = ۱! = ۱
∫−∞∞ ۰
∫ ∞
E(X ) =۲ ۲
x fX (x)dx = x۲ e−x dx = ۲! = ۲
−∞ ۰
۲
=⇒ Var(X) = E(X ۲ ) − E (X) = ۲ − ۱۲ = ۱
∫ ∞ ∫ ∞
E(Y ) = yfY (y)dy = y ۲ e−y dy = ۲! = ۲
∫−∞∞ ۰
∫ ∞
۲
E(Y ) = ۲
y fY (y)dy = y ۳ e−y dy = ۳! = ۶
−∞ ۰

=⇒ Var(Y ) = E(Y ۲ ) − E۲ (Y ) = ۶ − ۲۲ = ۲

‫ﺑﻨﺎﺑﺮاﯾﻦ‬

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = ۳ − (۱)(۲) = ۱


Cov(X, Y ) ۱
ρX,Y = √ =√ = ۰٫ ۷۰۷
Var(X)Var(Y ) ۱×۲

.‫ ھﻤﺴﻮ ھﺴﺘﻨﺪ‬Y ‫ و‬X ‫و ﻧﺘﯿﺠﻪ ﻣﯽ ﮔﯿﺮﯾﻢ ﮐﻪ‬

‫ ﺧﻮاص ﺿﺮﯾﺐ ھﻤﺒﺴﺘﮕﯽ‬١.٧.٣


‫ در اﯾ ﻦ‬.‫ دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ دﻟ ﺨ ﻮاه ﺑ ﺎﺷ ﻨ ﺪ‬Y ‫ و‬X ‫ اﻋ ﺪاد ﺛ ﺎﺑ ﺖ و‬d ‫ و‬c ،b ،a ‫ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬
:‫ﺻﻮرت دارﯾﻢ‬

.ρaX+b,cY +d = ρX,Y .١

۶١
‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺧﻮاص ﮐﻮارﯾﺎﻧﺲ و وارﯾﺎﻧﺲ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫)‪Cov(aX + b, cY + d‬‬
‫√ = ‪ρaX+b,cY +d‬‬
‫)‪Var(aX + b)Var(cY + d‬‬
‫) ‪acCov(X, Y‬‬
‫√=‬
‫)) ‪(a Var(X))(c۲ Var(Y‬‬
‫‪۲‬‬

‫) ‪Cov(X, Y‬‬
‫√=‬ ‫‪= ρX,Y‬‬
‫) ‪Var(X)Var(Y‬‬

‫‪ .٢‬اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آن ﮔﺎه ‪.ρX,Y = ۰‬‬

‫اﺛﺒﺎت‪ .‬ﻣﯽ داﻧﯿﻢ ﮐﻪ اﮔﺮ ‪ X‬و ‪ Y‬ﻣﺴﺘﻘﻞ ﺑﺎﺷﻨﺪ آن ﮔﺎه ) ‪ E(XY ) = E(X)E(Y‬و ﺑﻨﺎﺑﺮاﯾﻦ ‪Cov(X, Y ) = ۰‬‬
‫و از اﯾﻦ رو ‪.ρX,Y = ۰‬‬

‫• ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ اﮔﺮ ‪ Cov(X, Y ) = ۰‬آن ﮔﺎه ‪ X‬و ‪ Y‬ﻧﺎھﻤﺒﺴﺘﻪ ﺧﻄﯽ ھﺴﺘﻨﺪ اﻣﺎ ﻧﻤﯽ ﺗﻮان ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ‬
‫ﮐﻪ آن ھﺎ ﻣﺴﺘﻘﻠﻨﺪ‪.‬‬
‫• ﺗ ﻮﺟ ﻪ ﮐ ﻨ ﯿ ﺪ ﮐ ﻪ اﮔ ﺮ ‪ ρX,Y = ۰‬آن ﮔ ﺎه ‪ X‬و ‪ Y‬ﻧ ﺎھ ﻤ ﺒ ﺴ ﺘ ﻪ ﺧ ﻄ ﯽ ھ ﺴ ﺘ ﻨ ﺪ اﻣ ﺎ ﻧ ﻤ ﯽ ﺗ ﻮان‬
‫ﻧﺘﯿﺠﻪ ﮔﺮﻓﺖ ﮐﻪ ﻣﺴﺘﻘﻠﻨﺪ‪.‬‬

‫‪−۱ ≤ ρX,Y ≤ ۱ .٣‬‬

‫‪۶٢‬‬
‫ﻓﺼ ﻞ ‪۴‬‬

‫ﺑﺮﺧﯽ از ﺗﻮزﯾﻊ ھﺎی اﺣﺘﻤﺎل‬

‫در ﺑﺮﺧﯽ از آزﻣﺎﯾﺶ ھﺎی ﺗﺼﺎدﻓﯽ‪ ،‬ﺑﻪ دﻟﯿﻞ وﺟﻮد اﻟﮕﻮی ﺧﺎﺻﯽ ﺑﺮای ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ‪ ،‬ﺗﻮزﯾﻊ اﺣﺘﻤﺎل آن ھﺎ‬
‫ﻣﺸﺨﺺ اﺳﺖ‪ .‬در اﯾﻦ ﻓﺼﻞ ﺑﺮﺧﯽ از اﯾﻦ ﺗﻮزﯾﻊ ھﺎی اﺣﺘﻤﺎل ﺧﺎص ﮐﻪ ﭘﯿﺸﺘﺮ ﻣﻮرد اﺳﺘﻔﺎده ﻗﺮار ﺧﻮاھﻨﺪ ﮔﺮﻓﺖ‬
‫را ﻣﻌﺮﻓﯽ ﮐﺮده و ﺑﺮﺧﯽ ﺧﻮاص آن ھﺎ را ﻣﻄﺮح ﻣﯽ ﮐﻨﯿﻢ‪.‬‬

‫‪ ١.۴‬ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﮔﺴﺴﺘﻪ‬

‫‪ ١.١.۴‬ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ‬
‫آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ‪ :‬آزﻣﺎﯾﺸﯽ را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﻧﺘﺎﯾﺞ آن ﺷﺎﻣﻞ ﺗﻨﻬﺎ دو ﺣﺎﻟﺖ ﺷﮑﺴﺖ و ﻣﻮﻓﻘﯿﺖ ﺑﺎﺷﺪ‪ .‬در‬
‫واﻗﻊ ﻓﻀﺎی ﻧﻤﻮﻧﻪ در اﯾﻦ آزﻣﺎﯾﺶ‪ ،‬دو ﻋﻀﻮی اﺳﺖ ﻣﺜﻞ آزﻣﺎﯾﺶ ﭘﺮﺗﺎب ﯾﮏ ﺳﮑﻪ‪ .‬در ﭼﻨﯿﻦ آزﻣﺎﯾﺸﯽ‪ ،‬ﻣﺘﻐﯿﺮ‬
‫ﺗﺼﺎدﻓﯽ ‪ X‬ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﺷﻮد‪:‬‬

‫• وﻗﺘﯽ ﻣﻮﻓﻘﯿﺖ ﺣﺎﺻﻞ ﺷﻮد‪.X = ۱ :‬‬

‫• وﻗﺘﯽ ﺷﮑﺴﺖ ﺣﺎﺻﻞ ﺷﻮد‪X = ۰ :‬‬


‫در ﭼ ﻨ ﯿ ﻦ آزﻣ ﺎﯾ ﺸ ﯽ‪ p ،‬ﺑ ﻌ ﻨ ﻮان اﺣ ﺘ ﻤ ﺎل ﭘ ﯿ ﺮوزی و ﯾ ﺎ ﻣ ﻮﻓ ﻘ ﯿ ﺖ ﺗ ﻌ ﺮﯾ ﻒ ﺷ ﺪه و ‪ q‬اﺣ ﺘ ﻤ ﺎل ﺷ ﮑ ﺴ ﺖ در ﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ‬
‫ﻣﯽ ﺷﻮد‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ‬

‫)‪p = P(X = ۱‬‬

‫‪q = P(X = ۰) = ۱ − P(X = ۱) = ۱ − p‬‬

‫در آزﻣ ﺎﯾ ﺶ ﺗ ﻌ ﺮﯾ ﻒ ﺷ ﺪه‪ X ،‬دارای ﺗ ﻮزﯾ ﻊ ﺑ ﺮﻧ ﻮﻟ ﯽ ﺑ ﺎ ﭘ ﺎراﻣ ﺘ ﺮ ‪ p‬اﺳ ﺖ و آن را ﺑ ﺎ ﻧ ﻤ ﺎد )‪ X ∼ Be(p‬ﻧ ﺸ ﺎن‬


‫ﻣﯽ دھﯿﻢ‪ .‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ‬

‫‪fX (x) = P(X = x) = px (۱ − p)۱−x ,‬‬ ‫‪x = ۰, ۱‬‬

‫ﻗﻀﯿﻪ ‪ .١-۴‬اﮔﺮ )‪ ،X ∼ Be(p‬آن ﮔﺎه ‪ E(X) = p‬و ‪.Var(X) = pq‬‬

‫اﺛﺒﺎت‪ .‬ﻃﺒﻖ ﺗﻌﺮﯾ ﻒ اﻣﯿﺪ رﯾﺎﺿﯽ و وارﯾﺎﻧﺲ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﮔﺴﺴﺘﻪ‪ ،‬و ﺑﺎ اﺳﺘﻔﺎده از ﺷﮑﻞ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬
‫اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ دارﯾﻢ‬

‫∑‬
‫‪۱‬‬
‫= )‪E(X‬‬ ‫‪xP(X = x) = ۰ × q + ۱ × p = p‬‬
‫‪x=۰‬‬
‫∑‬
‫‪۱‬‬
‫= ) ‪E(X‬‬‫‪۲‬‬
‫‪x۲ P(X = x) = ۰۲ × q + ۱۲ × p = p‬‬
‫‪x=۰‬‬

‫‪=⇒ Var(X) = E(X ۲ ) − E۲ (X) = p − p۲ = p(۱ − p) = pq‬‬

‫ﻣﺜ ﺎل ‪ .٢-۴‬آزﻣﺎﯾ ﺶ ﭘﺮﺗﺎب ﯾ ﮏ ﺗﺎس را در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ھﺪف از ﭘﺮﺗﺎب آن ﻣﺸﺎھﺪه ﻋﺪد ‪ ۶‬ﺑﺎﺷ ﺪ‪ .‬در اﯾﻦ‬
‫ﺻﻮرت دارﯾﻢ‪:‬‬
‫اﮔﺮ ﻋﺪد ‪ ۶‬ﻣﺸﺎھﺪه ﺷﻮد آن ﮔﺎه ‪X = ۱‬؛‬
‫اﮔﺮ ﻋﺪد ‪ ۶‬ﻣﺸﺎھﺪه ﻧﺸﻮد آن ﮔﺎه ‪.X = ۰‬‬
‫‪۱‬‬ ‫‪۵‬‬
‫= )‪p = P(X = ۱‬‬ ‫‪,‬‬ ‫= )‪q = P(X = ۰‬‬ ‫‪.‬‬
‫‪۶‬‬ ‫‪۶‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ ) ‪ X ∼ Be( ۱۶‬و در ﻧﺘﯿﺠﻪ‬
‫‪۱‬‬ ‫‪۵‬‬
‫‪fX (x) = P(X = x) = ( )x ( )۱−x ,‬‬ ‫‪x = ۰, ۱.‬‬
‫‪۶‬‬ ‫‪۶‬‬

‫‪۶۴‬‬
‫‪ ٢.١.۴‬ﺗﻮزﯾﻊ دوﺟﻤﻠﻪ ای‬
‫آزﻣﺎﯾﺶ ﺗﺼﺎدﻓﯽ‪ :‬ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ ﯾﮏ آزﻣﺎﯾﺶ ﺑﺮﻧﻮﻟﯽ ﺑﺎ اﺣﺘﻤﺎل ‪ p‬را ‪ N‬ﺑﺎر ﺑﻪ ﻃﻮر ﻣﺴﺘﻘﻞ ﺗﮑﺮار ﮐﻨﯿﻢ‪.‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ :X‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ ھﺎی ﺑﺪﺳﺖ آﻣﺪه در ‪ N‬آزﻣﺎﯾﺶ اﻧﺠﺎم ﺷﺪه‪.‬‬
‫ﺑﺎ ﻓﺮض اﯾﻨﮑﻪ در ﻓﻀﺎی ﻧﻤﻮﻧﻪ ‪ ۰ ،S‬ﻧﺸﺎن دھﻨﺪه ﺷﮑﺴﺖ و ‪ ۱‬ﻧﺸﺎن دھﻨﺪه ﻣﻮﻓﻘﯿﺖ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫‪X‬‬
‫‪S‬‬ ‫→‪−‬‬ ‫‪SX‬‬

‫‪|۰۰ {z‬‬
‫‪. . . }۰‬‬ ‫→‪−‬‬ ‫‪۰‬‬
‫‪‬‬ ‫‪N‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪. . }۰ ‬‬
‫‪۱ |۰ .{z‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N‬‬ ‫‪−‬‬ ‫‪۱‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰۱‬‬ ‫‪| {z }‬‬
‫‪۰۰‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪۰‬‬‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N‬‬ ‫‪−‬‬ ‫‪۲‬‬ ‫‪‬‬
‫‪‬‬
‫‪..‬‬
‫‪‬‬ ‫‪.‬‬ ‫‪‬‬
‫→‪−‬‬ ‫‪۱‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰۰‬‬ ‫‪۰‬‬ ‫‪۱۰‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫|‬ ‫‪.‬‬
‫‪{z‬‬‫‪.‬‬ ‫‪.‬‬ ‫}‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N −۲‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰۰‬‬
‫|‬ ‫‪.‬‬
‫‪{z‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪۰‬‬
‫}‬ ‫‪۱‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪ N −۱‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۱۱ ۰| .{z‬‬ ‫‪. . }۰ ‬‬‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N −۲ ‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬‫‪۱۰۱‬‬ ‫‪۰۰‬‬
‫|‬ ‫‪.‬‬
‫‪{z‬‬‫‪.‬‬ ‫‪.‬‬ ‫‪۰‬‬
‫}‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N‬‬ ‫‪−‬‬ ‫‪۳‬‬ ‫‪‬‬
‫‪‬‬
‫‪..‬‬
‫‪‬‬ ‫‪.‬‬ ‫‪‬‬
‫→‪−‬‬ ‫‪۲‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬‫‪۰۰‬‬ ‫‪۰‬‬ ‫‪۱۰۱‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬‫|‬ ‫‪.‬‬
‫‪{z‬‬‫‪.‬‬ ‫‪.‬‬ ‫}‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪N −۳‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪۰۰‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪.‬‬ ‫‪۰‬‬ ‫‪۱۱‬‬ ‫‪‬‬
‫‪‬‬
‫} ‪ | {z‬‬ ‫‪‬‬
‫‪N −۲‬‬

‫‪..‬‬
‫‪.‬‬

‫‪۱۱‬‬ ‫}‪. . . ۱‬‬


‫‪| {z‬‬ ‫→‪−‬‬ ‫‪N‬‬
‫‪N‬‬

‫‪۶۵‬‬
:‫در واﻗﻊ دارﯾﻢ‬
X
S −→ SX
 
۰۰
| {z . . . }۰
 
 N 
 
 ۱ ۰| .{z . . }۰  




 
 N −۱   
 
 
  
 ۰۱ ۰۰ .
| {z }  . . ۰ 

  
 N −۲  
 .. 


. 






 
 ۰۰
| . . . }۰ ۱۰
{z  
 
 
  
 N −۲ 
   

 ۰۰ . . . ۰ ۱


  ۰
 | {z }  
  N −۱   
 
  ۱
    
 ۱۱ ۰ ۰  
 
| .
{z. . }  
   −→  ۲ 

 
 
   
− ۲
 N
   .. 


 ۱۰۱ ۰۰ . . . ۰


  .
 | {z }  

 
   

 N −۳  
 ..  N


. 







 
|۰۰ {z
 . . . }۰ ۱۰۱ 
  


 N −۳


 

 
 

 ۰۰ . . . ۰ ۱۱ 
 
 | {z }
 

 
 N −۲ 
 
 
 
 .. 


. 

 
۱۱
| {z . . . ۱}
N

‫ ﺗﮑﺮار آزﻣﺎﯾﺶ ﺑﺮﻧﻮﻟﯽ ﺑﻪ ﺻ ﻮرت ﻣﺴﺘﻘﻞ اﻧﺠﺎم ﻣ ﯽ ﺷ ﻮد و در ھﺮ آزﻣﺎﯾﺶ اﻧﺠﺎم‬N ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ در اﯾﻨﺠﺎ‬
 
N
‫ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‬،‫ اﺳﺖ‬  ‫ آزﻣﺎﯾﺶ ﻣﺸﺎھﺪه ﮐﺮد ﺑﺮاﺑﺮ ﺑﺎ‬N ‫ ﻣﻮﻓﻘﯿﺖ را در‬x ‫ ﺗﻌﺪاد ﺣﺎﻻﺗﯽ ﮐﻪ ﻣﯽ ﺗﻮان‬،‫ﺷﺪه‬
x
‫ ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‬X ‫اﺣﺘﻤﺎل‬
 
N
fX (x) = P(X = x) =   px (۱ − p)N −x , x = ۰, ۱, . . . , N
x

۶۶
‫در اﯾ ﻦ ﺻ ﻮرت ‪ X‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ دوﺟ ﻤ ﻠ ﻪ ای ﺑ ﺎ ﭘ ﺎراﻣ ﺘ ﺮھ ﺎی )‪ (N, p‬اﺳ ﺖ ﮐ ﻪ آن را ﺑ ﻪ ﺻ ﻮرت‬
‫)‪ X ∼ Bin(N, p‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪.‬‬

‫ﻣﺜﺎل ‪ .٣-۴‬ﺳﮑﻪ ای را ﮐﻪ اﺣﺘﻤﺎل ﻣﺸﺎھﺪه ﺷﯿﺮ در آن دو ﺑﺮاﺑﺮ ﺧﻂ اﺳﺖ‪ ۴ ،‬ﺑﺎر ﭘﺮﺗﺎب ﻣﯽ ﮐﻨﯿﻢ‪ .‬اﮔﺮ ‪ X‬ﺗﻌﺪاد‬
‫ﺷﯿﺮھﺎی ﻣﺸﺎھﺪه ﺷﺪه در ‪ ۴‬ﻣﺮﺗﺒﻪ ﭘﺮﺗﺎب ﺳﮑﻪ ﺑﺎﺷﺪ‪ ،‬اﺣﺘﻤﺎل ‪ X = ۳‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﻃﺒﻖ اﻃﻼﻋﺎت ﻣﺴﺎﻟﻪ دارﯾﻢ‬

‫) ‪P(H) = ۲P(T‬‬

‫‪P(H) + P(T ) = ۱‬‬

‫= )‪ .P(H‬ھﻤﭽﻨﯿﻦ ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﻌﺮﯾﻒ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ .X ∼ Bin(۴, ۳۲ ) ،X‬ﺑﻨﺎﺑﺮاﯾﻦ‬ ‫‪۲‬‬


‫‪۳‬‬ ‫= ) ‪،P(T‬‬ ‫‪۱‬‬
‫‪۳‬‬ ‫ﭘﺲ‬
‫‪ ‬‬
‫‪۴‬‬
‫‪۲ ۱‬‬
‫‪P(X = x) =   ( )x ( )۴−x ,‬‬ ‫‪x = ۰, ۱, . . . , ۴‬‬
‫‪x‬‬ ‫‪۳ ۳‬‬
‫‪ ‬‬
‫‪۴ ۲ ۱‬‬ ‫‪۲‬‬ ‫‪۱‬‬ ‫‪۳۲‬‬
‫= ) ( × ‪=⇒ P(X = ۳) =   ( )۳ ( ) = ۴ × ( )۳‬‬
‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۳‬‬ ‫‪۸۱‬‬

‫ﻗﻀﯿﻪ ‪ .۴-۴‬اﮔﺮ )‪ X ∼ Bin(N, p‬آن ﮔﺎه ‪ E(X) = N p‬و ‪.Var(X) = N pq‬‬

‫اﺛﺒﺎت‪ .‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دوﺟﻤﻠﻪ ای ‪ ،X‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ ھﺎ در ‪ N‬ﺗﮑﺮار از ﯾﮏ آزﻣﺎﯾﺶ ﺑﺮﻧﻮﻟﯽ ﺑﺎ‬
‫ﭘﺎراﻣﺘﺮ ‪ p‬اﺳﺖ‪ ،‬دارﯾﻢ‪:‬‬

‫‪X = X۱ + X۲ + . . . + XN‬‬ ‫)‪(١-۴‬‬

‫ﺑﻪ ﻃﻮری ﮐﻪ ‪ Xi‬ھﺎ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ از ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ﺑﺎ ﭘﺎراﻣﺘﺮ ‪ p‬ھﺴﺘﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ اﺳﺘﻔﺎده از ﺧﻮاص‬
‫اﻣﯿﺪ رﯾﺎﺿﯽ و وارﯾﺎﻧﺲ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫∑‬
‫‪N‬‬ ‫∑‬
‫‪N‬‬ ‫∑‬
‫‪N‬‬
‫(‪E(X) = E‬‬ ‫= ) ‪Xi‬‬ ‫= ) ‪E(Xi‬‬ ‫‪p = Np‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬ ‫‪i=۱‬‬
‫∑‬‫‪N‬‬ ‫∑‬
‫‪N‬‬ ‫∑‬
‫‪N‬‬
‫(‪Var(X) = Var‬‬ ‫= ) ‪Xi‬‬ ‫= ) ‪Var(Xi‬‬ ‫‪pq = N pq‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬ ‫‪i=۱‬‬

‫‪۶٧‬‬
‫ﻣ ﺜ ﺎل ‪ .۵-۴‬ﯾ ﮏ ﺗ ﺎس را ‪ ۵‬ﺑ ﺎر ﭘ ﺮﺗ ﺎب ﻣ ﯽ ﮐ ﻨ ﯿ ﻢ‪ .‬اﺣ ﺘ ﻤ ﺎل اﯾ ﻨ ﮑ ﻪ ‪ ٣‬ﺑ ﺎر ﻋ ﺪد ‪ ۴‬ﻣ ﺸ ﺎھ ﺪه ﺷ ﻮد را ﺑ ﺪﺳ ﺖ آورده و‬
‫ھﻤﭽﻨﯿﻦ ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ ﮐﻪ ﺑﺎ ﭼﻪ اﺣﺘﻤﺎﻟﯽ ﺣﺪاﮐﺜﺮ ‪ ٢‬ﺑﺎر ﻋﺪد ‪ ۴‬ﻣﺸﺎھﺪه ﻣﯽ ﺷﻮد‪.‬‬
‫ﺣﻞ‪ :‬ﻓﺮض ﮐﻨﯿﺪ ﻣﺸﺎھﺪه ﻋﺪد ‪ ۴‬را ﻣﻮﻓﻘﯿﺖ و ﻣﺸﺎھﺪه ﻋﺪدی ﻏﯿﺮ از ‪ ۴‬را ﺷﮑﺴﺖ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ‪ .‬در اﯾﻦ‬
‫ﺻﻮرت‪ X ،‬را ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ در ‪ ۵‬ﺑﺎر ﭘﺮﺗﺎب ﺗﺎس ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ و دارﯾﻢ‪ X ∼ Bin(۵, p) :‬ﺑﻪ ﻃﻮری ﮐﻪ‬
‫اﺣﺘﻤﺎل ﻣﺸﺎھﺪه ﻋﺪد ‪ ۴‬در ھﺮ ﭘﺮﺗﺎب ﺗﺎس‪p :‬‬

‫‪۱‬‬
‫=‪p‬‬
‫‪۶‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪ ‬‬
‫‪۱ ۵‬‬‫‪۵‬‬
‫‪P(X = x) =   ( )x ( )۵−x ,‬‬ ‫‪x = ۰, ۱, . . . , ۵‬‬
‫‪x‬‬ ‫‪۶ ۶‬‬
‫‪ ‬‬
‫‪۵ ۱ ۵‬‬ ‫!‪۵‬‬ ‫‪۱‬‬ ‫‪۵‬‬ ‫‪۱۲۵‬‬
‫= ‪=⇒ P(X = ۳) =   ( )۳ ( )۲‬‬ ‫= ‪× ( )۳ × ( )۲‬‬
‫‪۳ ۶ ۶‬‬ ‫!‪۳!۲‬‬ ‫‪۶‬‬ ‫‪۶‬‬ ‫‪۶۴۸‬‬
‫‪ ‬‬ ‫‪ ‬‬ ‫‪ ‬‬
‫∑‬‫‪۲‬‬
‫‪۵ ۵‬‬ ‫‪۵ ۱ ۵‬‬ ‫‪۵ ۱ ۵‬‬
‫= )‪=⇒ P(X ≤ ۲‬‬ ‫‪P(X = x) =   ( )۵ +   ( )( )۴ +   ( )۲ ( )۳ = ۰٫ ۹۶۴۵‬‬
‫‪x=۰‬‬ ‫‪۰‬‬ ‫‪۶‬‬ ‫‪۱‬‬ ‫‪۶ ۶‬‬ ‫‪۲‬‬ ‫‪۶‬‬ ‫‪۶‬‬

‫‪۶٨‬‬
‫ﻧﻤﻮدار ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻧﺮﻣﺎل‬ ‫ﺷﮑﻞ ‪:١-۴‬‬

‫‪ ٢.۴‬ﺗﻮزﯾﻊ اﺣﺘﻤﺎل ﭘﯿﻮﺳﺘﻪ‬

‫‪ ١.٢.۴‬ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‬
‫ﻣﻬﻢ ﺗﺮﯾﻦ ﺗﻮزﯾﻊ ﭘﯿﻮﺳﺘﻪ در آﻣﺎر و اﺣﺘﻤﺎل‪ ،‬ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﺳﺖ ﺑﻪ ﻃﻮری ﮐﻪ ﻋﻤﻼ‪ ‬ﺑﺴﯿﺎری از ﭘﺪﯾﺪه ھﺎی ﻃﺒﯿﻌﯽ‪،‬‬
‫ﺣ ﺪاﻗ ﻞ ﺑ ﻪ ﻃ ﻮر ﺗ ﻘ ﺮﯾ ﺒ ﯽ از ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل ﺗ ﺒ ﻌ ﯿ ﺖ ﻣ ﯽ ﮐ ﻨ ﻨ ﺪ‪ .‬ﻣ ﺘ ﻐ ﯿ ﺮ ﻗ ﺪ اﻓ ﺮاد و ﺧ ﻄ ﺎی اﻧ ﺪازه ﮔ ﯿ ﺮی از ﺟ ﻤ ﻠ ﻪ اﯾ ﻦ‬
‫ﭘﺪﯾﺪه ھﺎ ھﺴﺘﻨﺪ‪.‬‬
‫ﻧ ﻤ ﻮدار ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﻧ ﺮﻣ ﺎل ‪ ،X‬زﻧ ﮕ ﻮﻟ ﻪ ای ﺷ ﮑ ﻞ اﺳ ﺖ‪ .‬در ﺷ ﮑ ﻞ ‪ ١-۴‬ﯾ ﮑ ﯽ از اﯾ ﻦ‬
‫ﻧﻤﻮدارھﺎ را ﻣﺸﺎھﺪه ﻣﯽ ﮐﻨﯿﺪ‪.‬‬
‫ﻧﻤﻮدار ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻧﺮﻣﺎل ‪ ،X‬ﺣﻮل اﻣﯿﺪ رﯾﺎﺿﯽ آن‪ µ = µX ،‬اﺳﺖ و ﭘﺮاﮐﻨﺪﮔﯽ آن‬
‫ﺣﻮل ‪ µ‬ﺗﻮﺳﻂ وارﯾﺎﻧﺲ ‪ ،σ ۲ ،X‬ﻣﺸﺨﺺ ﻣﯽ ﺷﻮد‪ .‬در واﻗﻊ‪ ،‬ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﻧﺮﻣﺎل ﺑﻪ دو ﻣﺘﻐﯿﺮ ‪ µ‬و ‪ σ ۲‬واﺑﺴﺘﻪ‬
‫اﺳﺖ و از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‬
‫‪۱‬‬ ‫‪−۱‬‬ ‫‪۲‬‬
‫√ = )‪fX (x‬‬ ‫‪e ۲σ۲ (x−µ) ,‬‬ ‫‪−∞ < x < ∞,‬‬ ‫‪µ ∈ R,‬‬ ‫‪σ>۰‬‬
‫‪۲πσ ۲‬‬
‫ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﺑﺎ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ ﺑﺎﻻ‪ ،‬دارای ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﺑﺎ ﭘﺎراﻣﺘﺮھﺎی ) ‪ (µ, σ ۲‬اﺳﺖ ﮐﻪ آن را ﺑﻪ ﺻﻮرت‬
‫) ‪ X ∼ N (µ, σ ۲‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‪.‬‬

‫‪۶٩‬‬
‫ﺧﻮاص ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل‬

‫‪ .١‬ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل دارای ﺗﻨﻬﺎ ﯾﮏ ﻧﻘﻄﻪ ﻣﺎﮐﺰﯾﻤﻢ در ‪ x = µ‬اﺳﺖ‪.‬‬

‫اﺛﺒﺎت‪.‬‬
‫)‪dfX (x‬‬ ‫‪۱‬‬ ‫‪−۱‬‬ ‫‪−۱‬‬ ‫‪۲‬‬
‫= )‪fX′ (x‬‬ ‫√=‬ ‫‪( ۲ )(x − µ)e ۲σ۲ (x−µ) = ۰‬‬
‫‪dx‬‬ ‫‪۲πσ ۲ σ‬‬
‫‪=⇒ x = µ‬‬
‫)‪d۲ fX (x‬‬ ‫‪−۱‬‬
‫‪۲‬‬
‫√ = ‪|x=µ‬‬ ‫‪<۰‬‬
‫‪dx‬‬ ‫‪σ ۲πσ ۲‬‬
‫‪۲‬‬

‫‪=⇒ xmax = µ‬‬

‫‪ .٢‬ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل دارای دو ﻧﻘﻄﻪ ﻋﻄﻒ در ﻧﻘﺎط ‪ x = µ ± σ‬اﺳﺖ‪.‬‬

‫اﺛﺒﺎت‪.‬‬

‫)‪d۲ fX (x‬‬
‫‪=۰‬‬
‫‪dx۲‬‬
‫‪۱‬‬ ‫‪−۱‬‬ ‫‪۱‬‬ ‫‪−۱‬‬ ‫‪۲‬‬
‫√ ⇒=‬ ‫‪( ۲ + ۴ (x − µ)۲ )e ۲σ۲ (x−µ) = ۰‬‬
‫‪۲πσ ۲ σ‬‬ ‫‪σ‬‬
‫‪−۱‬‬ ‫‪۱‬‬
‫‪=⇒ ۲ + ۴ (x − µ)۲ = ۰‬‬
‫‪σ‬‬ ‫‪σ‬‬
‫‪=⇒ x = µ ± σ‬‬

‫‪ .٣‬ﻣﻨﺤﻨﯽ ﻧﺴﺒﺖ ﺑﻪ ﺧﻂ ‪ x = µ‬ﻣﺘﻘﺎرن اﺳﺖ‪.‬‬

‫اﺛﺒﺎت‪ .‬ﺑﺎ ﺟﺎﯾﮕﺬاری در راﺑﻄﻪ )‪ fX (x‬ﻣﺮﺑﻮط ﺑﻪ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪ ،‬ﺑﻪ دﺳﺖ ﻣﯽ آورﯾﻢ )‪fX (µ + a) = fX (µ − a‬‬
‫و ﺑﻨﺎﺑﺮاﯾﻦ ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل ﻧﺴﺒﺖ ﺑﻪ ﺧﻂ ‪ x = µ‬ﻣﺘﻘﺎرن اﺳﺖ‪.‬‬

‫‪.limx→±∞ fX (x) = ۰ .۴‬‬

‫∞∫‬
‫‪.‬‬ ‫∞‪−‬‬
‫‪fX (x)dx = ۱ .۵‬‬

‫‪٧٠‬‬
‫ﻃﺒﻖ ﺗﻌﺮﯾﻒ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ‪ ،‬ﺑﺮای ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ) ‪ X ∼ N (µ, σ ۲‬دارﯾﻢ‬
‫∫‬ ‫‪x‬‬
‫‪۱‬‬ ‫‪−۱‬‬ ‫‪۲‬‬
‫= )‪FX (x) = P(X ≤ x‬‬ ‫√‬ ‫‪e ۲σ۲ (t−µ) dt‬‬
‫∞‪−‬‬ ‫‪۲πσ ۲‬‬
‫ھﻤﭽﻨﯿﻦ ﺑﺮای ‪ [a, b] ⊆ R‬دارﯾﻢ‬
‫∫‬ ‫‪b‬‬
‫‪۱‬‬ ‫‪−۱‬‬ ‫‪۲‬‬
‫= )‪P(a < X < b‬‬ ‫√‬ ‫‪e ۲σ۲ (x−µ) dx‬‬
‫‪a‬‬ ‫‪۲πσ ۲‬‬
‫ﻣﺤﺎﺳﺒﻪ اﻧﺘﮕﺮال ھﺎی ﭘﯿﭽﯿﺪه ﻣﻮﺟﻮد در رواﺑﻂ )‪ FX (x‬و )‪ P(a < X < b‬ﺑﺎﻻ‪ ،‬ﺑﺎ ﻓﺮض ‪ µ = ۰‬و ‪،σ ۲ = ۱‬‬
‫ﺳﺎده و ﺑﺎ روش ھﺎی ﻋﺪدی اﻣﮑﺎن ﭘﺬﯾﺮ ﺧﻮاھﺪ ﺷﺪ‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .۶-۴‬ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﺑﺎ ﭘﺎراﻣﺘﺮھﺎی ‪ µ = ۰‬و ‪ ،σ ۲ = ۱‬ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﺳﺘﺎﻧﺪارد ﻧﺎﻣﯿﺪه ﻣﯽ ﺷﻮد و آن را ﺑﻪ‬
‫ﺻ ﻮرت )‪ Z ∼ N (۰, ۱‬ﻧ ﻤ ﺎﯾ ﺶ ﻣ ﯽ دھ ﻨ ﺪ‪ .‬ﺗ ﺎﺑ ﻊ ﭼ ﮕ ﺎﻟ ﯽ ﻧ ﺮﻣ ﺎل اﺳ ﺘ ﺎﻧ ﺪارد ﺑ ﺎ )‪ φ(z‬ﻧ ﺸ ﺎن داده ﻣ ﯽ ﺷ ﻮد و ﺑ ﻪ‬
‫ﺻﻮرت زﯾﺮ اﺳﺖ‬
‫‪۱‬‬ ‫‪−z ۲‬‬
‫√ = )‪φ(z‬‬ ‫‪e ,‬‬ ‫‪۲‬‬ ‫∞ < ‪−∞ < z‬‬
‫‪۲π‬‬
‫ﺗﺎﺑﻊ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﺳﺘﺎﻧﺪارد ھﻢ ﺑﺎ ﻧﻤﺎد )‪ Φ(z‬ﻧﻤﺎﯾﺶ داده ﻣﯽ ﺷﻮد و از راﺑﻄﻪ زﯾﺮ ﺑﺪﺳﺖ ﻣﯽ آﯾﺪ‬
‫∫‬ ‫‪z‬‬
‫= )‪Φ(z) = P(Z ≤ z‬‬ ‫‪φ(t)dt‬‬
‫∞‪−‬‬

‫ﺑﺎ اﺳﺘﻔﺎده از روش ھﺎی ﻋﺪدی‪ ،‬ﻣﻘﺎدﯾﺮ )‪ Φ(z‬ﺑﻪ ازای ‪ ،−۳٫ ۵ ≤ z ≤ ۳٫ ۵‬ﻣﺤﺎﺳﺒﻪ ﺷﺪه و در ﺟﺪول ‪III‬‬
‫ﭘ ﯿ ﻮﺳ ﺖ اراﺋ ﻪ ﺷ ﺪه اﺳ ﺖ‪ .‬ﻓ ﺎﯾ ﻞ ‪ Normal.ppsx‬ﺿ ﻤ ﯿ ﻤ ﻪ‪ ،‬روش ﺻ ﺤ ﯿ ﺢ ﺧ ﻮاﻧ ﺪن ﻣ ﻘ ﺎدﯾ ﺮ ﺟ ﺪول ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل را‬
‫ﻧﻤﺎﯾﺶ ﻣﯽ دھﺪ‪.‬‬
‫ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﻓﺼﻞ دوم دارﯾﻢ‪:‬‬

‫)‪P(a < Z < b) = P(Z < b) − P(Z < a) = Φ(b) − Φ(a‬‬

‫= ‪.Z‬‬ ‫‪X−µ‬‬
‫‪σ‬‬
‫ﻗﻀﯿﻪ ‪ .٧-۴‬اﮔﺮ ) ‪ ،X ∼ N (µ, σ ۲‬آن ﮔﺎه )‪∼ N (۰, ۱‬‬

‫= ‪ Z‬را ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪ .‬ﻃﺒﻖ ﺗﻌﺮﯾﻒ ﺗﺎﺑﻊ ﺗﻮزﯾﻊ دارﯾﻢ‬ ‫‪X−µ‬‬


‫‪σ‬‬
‫اﺛﺒﺎت‪ .‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫‪X −µ‬‬
‫(‪FZ (z) = P(Z ≤ z) = P‬‬ ‫)‪≤ z) = P(X ≤ σz + µ) = FX (σz + µ‬‬
‫‪σ‬‬
‫‪d‬‬ ‫‪۱ −z۲‬‬
‫= )‪=⇒ fZ (z‬‬ ‫)‪FZ (z) = σfX (σz + µ) = √ e ۲ = φ(z‬‬
‫‪dz‬‬ ‫‪۲π‬‬
‫‪x−µ‬‬
‫< ∞‪− ∞ < x < ∞ =⇒ −‬‬ ‫∞ < ‪< ∞ =⇒ −∞ < z‬‬
‫‪σ‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ )‪.Z ∼ N (۰, ۱‬‬

‫‪٧١‬‬
‫ﺑﺮاﺳﺎس ﻗﻀﯿﻪ ‪ ،٧-۴‬اﮔﺮ ) ‪ ،X ∼ N (µ, σ ۲‬آن ﮔﺎه ﺑﺮای ﻣﺤﺎﺳﺒﻪ )‪ FX (x‬دارﯾﻢ‪:‬‬

‫‪X −µ‬‬ ‫‪x−µ‬‬ ‫‪x−µ‬‬ ‫‪x−µ‬‬


‫(‪FX (x) = P(X ≤ x) = P‬‬ ‫≤‬ ‫≤ ‪) = P(Z‬‬ ‫(‪) = Φ‬‬ ‫)‬
‫‪σ‬‬ ‫‪σ‬‬ ‫‪σ‬‬ ‫‪σ‬‬

‫و ﺑﻨﺎﺑﺮاﯾﻦ ﻣﯽ ﺗﻮان ﭘﺎﺳﺦ را ﺑﺎ اﺳﺘﻔﺎده از ﺟﺪول ‪ III‬ﺑﺪﺳﺖ آورد‪ .‬ﺑﻪ ﻃﻮر ﻣﺸﺎﺑﻪ دارﯾﻢ‪:‬‬

‫‪a−µ‬‬ ‫‪X −µ‬‬ ‫‪b−µ‬‬


‫(‪P(a < X < b) = P‬‬ ‫<‬ ‫<‬ ‫)‬
‫‪σ‬‬ ‫‪σ‬‬ ‫‪σ‬‬
‫‪a−µ‬‬ ‫‪b−µ‬‬
‫(‪= P‬‬ ‫<‪<Z‬‬ ‫)‬
‫‪σ‬‬ ‫‪σ‬‬
‫‪b−µ‬‬ ‫‪a−µ‬‬
‫< ‪= P(Z‬‬ ‫< ‪) − P(Z‬‬ ‫)‬
‫‪σ‬‬ ‫‪σ‬‬
‫‪b−µ‬‬ ‫‪a−µ‬‬
‫(‪= Φ‬‬ ‫(‪) − Φ‬‬ ‫)‬
‫‪σ‬‬ ‫‪σ‬‬

‫ﻣﺜﺎل ‪ .٨-۴‬ﻓﺮض ﮐﻨﯿﺪ )‪ .X ∼ N (۱۰, ۱۶‬ﻣﻘﺪار )‪ P(۸ < X < ۱۵‬را ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣﻞ‪:‬‬
‫‪۸ − ۱۰‬‬ ‫‪۱۵ − ۱۰‬‬
‫(‪P(۸ < X < ۱۵) = P‬‬ ‫<‪<Z‬‬ ‫)‬
‫‪۴‬‬ ‫‪۴‬‬
‫)‪= Φ(۱٫ ۲۵) − Φ(−۰٫ ۵‬‬

‫‪= ۰٫ ۸۹۴۴ − ۰٫ ۳۰۸۵ = ۰٫ ۵۸۵۹‬‬

‫‪ ٣.۴‬ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰی‬
‫اﮔﺮ ‪ X۱ , X۲ , . . . , Xn‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ﻣﺴﺘﻘﻞ و ھﻢ ﺗﻮزﯾﻊ ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ‪ µ‬و وارﯾﺎﻧﺲ ﻣﺘﻨﺎھﯽ ‪ σ ۲‬ﺑﺎﺷﻨﺪ‬
‫‪∑n‬‬
‫وﻗﺘﯽ ‪ n‬ﺑﻪ اﻧﺪازه ﮐﺎﻓﯽ ﺑﺰرگ ﺑﺎﺷﺪ‪ ،‬دارای ﺗﻮزﯾﻊ ﺗﻘﺮﯾﺒﯽ ﻧﺮﻣﺎل اﺳﺖ‪.‬‬ ‫‪i=۱‬‬ ‫آن ﮔﺎه ‪Xi‬‬
‫ﺑﺮای ﻣﺜﺎل‪ ،‬ﻓﺮض ﮐﻨﯿﺪ )‪ .X ∼ Be(p‬ﻃﺒﻖ وﯾﮋﮔﯽ ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ دارﯾﻢ‪:‬‬

‫‪E(X) = p ,‬‬ ‫‪Var(X) = pq‬‬

‫ﺣ ﺎل اﮔ ﺮ ‪ X۱ , X۲ , . . . , Xn‬ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ از اﯾ ﻦ ﺟ ﺎﻣ ﻌ ﻪ ﺑ ﻮده و ‪ n‬ﻧ ﯿ ﺰ ﺑ ﻪ اﻧ ﺪازه ﮐ ﺎﻓ ﯽ ﺑ ﺰرگ ﺑ ﺎﺷ ﺪ آن ﮔ ﺎه‬

‫‪٧٢‬‬
‫‪∑n‬‬
‫= ‪ Sn‬دارای ﺗﻮزﯾﻊ ﺗﻘﺮﯾﺒﯽ ﻧﺮﻣﺎل اﺳﺖ و دارﯾﻢ‪:‬‬ ‫‪i=۱‬‬ ‫ﻃﺒﻖ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰی‪Xi ،‬‬

‫∑‬
‫‪n‬‬ ‫∑‬
‫‪n‬‬
‫(‪E(Sn ) = E‬‬ ‫= ) ‪Xi‬‬ ‫‪E(Xi ) = np‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬
‫∑‬‫‪n‬‬ ‫∑‬
‫‪n‬‬
‫(‪Var(Sn ) = Var‬‬ ‫= ) ‪Xi‬‬ ‫‪Var(Xi ) = npq‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬
‫∑‬
‫‪n‬‬
‫= ‪=⇒ Sn‬‬ ‫)‪Xi ∼ N (np, npq‬‬ ‫)‪(٢-۴‬‬
‫‪i=۱‬‬

‫ﻣﺜﺎل ‪ .٩-۴‬وزن ﯾﮓ ﮔﻠﻮﻟﻪ ﻓﻠﺰی دارای ﻣﯿﺎﻧﮕﯿﻦ ‪ ۴٫ ۰۷‬اﻧﺲ و اﻧﺤﺮاف ﻣﻌﯿﺎر ‪ ۰٫ ۶‬اﻧﺲ اﺳﺖ‪ .‬اﯾﻦ ﮔﻠﻮﻟﻪ ھﺎ‬
‫در ﺟﻌﺒﻪ ھﺎی ‪ ۸۱‬ﺗﺎﯾﯽ ﺑﻪ ﻓﺮوش ﻣﯽ رﺳﻨﺪ‪ .‬اﺣﺘﻤﺎل اﯾﻨﮑﻪ ﯾﮏ ﺟﻌﺒﻪ ﺑﻪ ﺗﺼﺎدف اﻧﺘﺨﺎب ﺷﺪه‪ ،‬وزﻧﯽ ﺑﯿﻦ ‪۳۲۸‬‬
‫و ‪ ۳۳۵‬اﻧﺲ داﺷﺘﻪ ﺑﺎﺷﺪ را ﺑﯿﺎﺑﯿﺪ‪.‬‬
‫ﺣﻞ‪ :‬اﮔﺮ ‪ X‬وزن ﯾﮏ ﮔﻠﻮﻟﻪ ﺗﻌﺮﯾﻒ ﺷﻮد‪ ،‬آن ﮔﺎه ‪ µX = ۴٫ ۰۷‬و ‪ .σX = ۰٫ ۶‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ ھﺮ ﺟﻌﺒﻪ‬
‫‪∑۸۱‬‬
‫= ‪ Sn‬اﺳﺖ و ﺑﺎﯾﺪ اﺣﺘﻤﺎل زﯾﺮ را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﻢ‬ ‫‪i=۱‬‬ ‫ﺷﺎﻣﻞ ‪ ۸۱‬ﮔﻠﻮﻟﻪ اﺳﺖ‪ ،‬وزن ھﺮ ﺟﻌﺒﻪ ﺑﻪ ﺻﻮرت ‪Xi‬‬

‫?= )‪P(۳۲۸ < Sn < ۳۳۵‬‬

‫دارﯾﻢ‪:‬‬

‫∑‬
‫‪۸۱‬‬ ‫∑‬
‫‪۸۱‬‬
‫(‪E(Sn ) = E‬‬ ‫= ) ‪Xi‬‬ ‫‪E(Xi ) = ۸۱ × ۴٫ ۰۷ = ۳۲۹٫ ۶۷‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬
‫∑‬
‫‪۸۱‬‬ ‫∑‬
‫‪۸۱‬‬
‫(‪Var(Sn ) = Var‬‬ ‫= ) ‪Xi‬‬ ‫‪Var(Xi ) = ۸۱ × (۰٫ ۶)۲ = ۲۹٫ ۱۶‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬

‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ در اﯾ ﻨ ﺠ ﺎ ‪ n = ۸۱‬ﺑ ﻪ اﻧ ﺪازه ﮐ ﺎﻓ ﯽ ﺑ ﺰرگ اﺳ ﺖ‪ ،‬ﻃ ﺒ ﻖ ﻗ ﻀ ﯿ ﻪ ﺣ ﺪ ﻣ ﺮﮐ ﺰی ﺑ ﻪ ﻃ ﻮر ﺗ ﻘ ﺮﯾ ﺒ ﯽ دارﯾ ﻢ‬


‫= ‪ Z‬دارای ﺗ ﻮزﯾ ﻊ ﺗ ﻘ ﺮﯾ ﺒ ﯽ ﻧ ﺮﻣ ﺎل اﺳ ﺘ ﺎﻧ ﺪارد اﺳ ﺖ(‪.‬‬ ‫‪Sn −۳۲۹٫۶۷‬‬
‫‪۵٫۴‬‬ ‫)‪) Sn ∼ N (۳۲۹٫ ۶۷, ۲۹٫ ۱۶‬و در ﻧ ﺘ ﯿ ﺠ ﻪ‬
‫دارﯾﻢ‬

‫‪۳۲۸ − ۳۲۹٫ ۶۷‬‬ ‫‪۳۳۵ − ۳۲۹٫ ۶۷‬‬


‫(‪P(۳۲۸ < Sn < ۳۳۵) = P‬‬ ‫<‪<Z‬‬ ‫)‬
‫‪۵٫ ۴‬‬ ‫‪۵٫ ۴‬‬
‫)‪= P(−۰٫ ۳ < Z < ۰٫ ۹۹‬‬

‫)‪= Φ(۰٫ ۹۹) − Φ(−۰٫ ۳‬‬

‫‪= ۰٫ ۸۳۸۹ − ۰٫ ۳۸۲۱ = ۰٫ ۴۵۶۸‬‬

‫‪٧٣‬‬
‫ﻣﺜﺎل ‪ .١٠-۴‬ﻓﺮض ﮐﻨﯿﺪ )‪ .X ∼ Bin(۱۰۰, ۰٫ ۵‬ﻣﻘﺪار )‪ P(X > ۳۵‬را ﻣﺤﺎﺳﺒﻪ ﮐﻨﯿﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺑﺮای ﺗﻮزﯾﻊ دو ﺟﻤﻠﻪ ای دارﯾﻢ‪:‬‬

‫)‪P(X > ۳۵) = ۱ − P(X ≤ ۳۵‬‬


‫‪ ‬‬
‫∑‬
‫‪۳۵‬‬
‫‪۱۰۰‬‬
‫‪=۱−‬‬ ‫‪  (۰٫ ۵)x (۰٫ ۵)۱۰۰−x‬‬
‫‪x=۰‬‬ ‫‪x‬‬

‫ﻣ ﺤ ﺎﺳ ﺒ ﻪ اﺣ ﺘ ﻤ ﺎل در ﻣ ﺜ ﺎل ﺑ ﺎﻻ‪ ،‬ﺷ ﺎﻣ ﻞ ﻣ ﺤ ﺎﺳ ﺒ ﺎت ﺑ ﺴ ﯿ ﺎر زﯾ ﺎدی اﺳ ﺖ اﻣ ﺎ ﺑ ﺎ اﺳ ﺘ ﻔ ﺎده از ﻗ ﻀ ﯿ ﻪ ﺣ ﺪ ﻣ ﺮﮐ ﺰی و‬


‫ﺗﻘﺮﯾﺐ ﻧﺮﻣﺎل ﻣﺤﺎﺳﺒﺎت ﺳﺎده ﺧﻮاھﻨﺪ ﺷﺪ‪.‬‬

‫دارای‬ ‫‪X−N‬‬
‫√‬ ‫‪p‬‬
‫‪N pq‬‬
‫ﻗﻀﯿﻪ ‪ .١١-۴‬اﮔﺮ )‪ X ∼ Bin(N, p‬آن ﮔﺎه وﻗﺘﯽ ‪ N‬ﺑﻪ اﻧﺪازه ﮐﺎﻓﯽ ﺑﺰرگ ﺑﺎﺷﺪ‪ ،‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﺗﻮزﯾﻊ ﺗﻘﺮﯾﺒﯽ ﻧﺮﻣﺎل اﺳﺘﺎﻧﺪارد اﺳﺖ‪.‬‬

‫ﻣﻌﻤﻮﻻ‪ ‬وﻗﺘﯽ ‪ N > ۳۰‬و ﯾﺎ ﻣﻘﺪار ‪ p‬ﺑﻪ ‪ ۰٫ ۵‬ﻧﺰدﯾﮏ ﺑﺎﺷﺪ‪ ،‬ﺗﻘﺮﯾﺐ ﺗﻮزﯾﻊ دوﺟﻤﻠﻪ ای ﺑﻪ وﺳﯿﻠﻪ ﻧﺮﻣﺎل ﻣﻨﺎﺳﺐ‬
‫اﺳﺖ‪.‬‬

‫ﻣﺜﺎل ‪ .١٢-۴‬در ﻣﺜﺎل ‪ ١٢-۵‬ﭼﻮن ‪ N = ۱۰۰‬ﺑﻪ اﻧﺪازه ﮐﺎﻓﯽ ﺑﺰرگ اﺳﺖ‪ ،‬ﺑﺎ اﺳﺘﻔﺎده از ﻗﻀﯿﻪ ‪ ١١-۴‬و ﺗﻘﺮﯾﺐ‬
‫ﻧﺮﻣﺎل دارﯾﻢ‪:‬‬

‫‪X − Np‬‬ ‫‪X − ۵۰‬‬ ‫‪X − ۵۰‬‬


‫√ =‪Z‬‬ ‫√ =‬ ‫=‬ ‫)‪∼ N (۰, ۱‬‬
‫‪N pq‬‬ ‫‪۲۵‬‬ ‫‪۵‬‬
‫)‪=⇒ P(X > ۳۵) = ۱ − P(X ≤ ۳۵‬‬
‫‪۳۵ − ۵۰‬‬
‫≤ ‪= ۱ − P(Z‬‬ ‫)‬
‫‪۵‬‬
‫)‪= ۱ − P(Z ≤ −۳‬‬

‫)‪= ۱ − Φ(−۳‬‬

‫‪= ۱ − ۰٫ ۰۰۱۳ = ۰٫ ۹۹۸۷‬‬

‫‪٧۴‬‬
‫ﻓﺼ ﻞ ‪۵‬‬

‫آﻣﺎر اﺳﺘﻨﺒﺎﻃﯽ‬

‫ھﺪف اﺻﻠﯽ در ﻣﺒﺤﺚ آﻣﺎری‪ ،‬ﺷﻨﺎﺧﺖ ﺟﺎﻣﻌﻪ آﻣﺎری اﺳﺖ‪.‬‬


‫ﺟﺎﻣﻌﻪ آﻣﺎری‪ ،‬ﻣﺠﻤﻮﻋﻪ ای از اﻓﺮاد‪ ،‬اﺷﯿﺎء و ﭼﯿﺰھﺎﯾﯽ ھﺴﺘﻨﺪ ﮐﻪ ﯾﮏ ﯾﺎ ﭼﻨﺪ ﺧﺼﻮﺻﯿﺖ ﻣﺸﺘﺮک دارﻧﺪ‪.‬‬
‫ﻣﻨﻈﻮر از ﺷﻨﺎﺧﺖ ﯾﮏ ﺟﺎﻣﻌﻪ آﻣﺎری‪ ،‬ﺷﻨﺎﺧﺖ اﻓﺮاد ﺟﺎﻣﻌﻪ ﺑﺮاﺳﺎس ﯾﮑﯽ از ﺧﺼﻮﺻﯿﺎت آن ھﺎ اﺳﺖ و ﺑﺎ ﺗﻮﺟﻪ‬
‫ﺑﻪ اﯾﻨﮑﻪ اﯾﻦ ﺧﺼﻮﺻﯿﺎت از ﻓﺮدی ﺑﻪ ﻓﺮد دﯾﮕﺮ ﺗﻐﯿﯿﺮ ﻣﯽ ﮐﻨﺪ‪ ،‬ھﺮ ﺧﺼﻮﺻﯿﺖ را ﻣﯽ ﺗﻮان ﺑﺎ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﻧﺸﺎن داد‪ .‬از ﻃﺮﻓﯽ ﺷﻨﺎﺧﺖ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‪ ،‬ﺑﺎ ﺷﻨﺎﺧﺖ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ‪ ،‬ﺗﺎﺑﻊ ﺗﻮزﯾﻊ‪ ،‬اﻣﯿﺪ رﯾﺎﺿﯽ‪ ،‬وارﯾﺎﻧﺲ و‬
‫‪ ...‬آن ﻣﯿﺴﺮ اﺳﺖ‪.‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ ﺷﻨﺎﺧﺖ ﯾﮏ ﺟﺎﻣﻌﻪ آﻣﺎری ﯾﻌﻨﯽ ﺷﻨﺎﺧﺖ ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻟﯽ ﺧﺼﻮﺻﯿﺖ ﻣﻮرد ﺑﺮرﺳﯽ در آن ﺟﺎﻣﻌﻪ‪.‬‬
‫ﻧﻤﺎﯾﺶ ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺮاﺳﺎس ﻣﺘﻐﯿﺮ ﺧﺼﻮﺻﯿﺖ‪X۱ , X۲ , . . . , XN :‬‬
‫ﺧﺼﻮﺻﯿﺖ ﻓﺮد اول‪X۱ :‬‬
‫ﺧﺼﻮﺻﯿﺖ ﻓﺮد دوم‪X۲ :‬‬
‫‪..‬‬
‫‪.‬‬
‫ﺧﺼﻮﺻﯿﺖ ﻓﺮد ‪N‬ام‪.XN :‬‬
‫ﭘ ﺲ ﺑ ﺮای دﺳ ﺘ ﯿ ﺎﺑ ﯽ ﺑ ﻪ ھ ﺪف ﺷ ﻨ ﺎﺧ ﺖ ﺟ ﺎﻣ ﻌ ﻪ آﻣ ﺎری ﺑ ﺎﯾ ﺪ در ﭘ ﯽ ﺷ ﻨ ﺎﺧ ﺖ ﺗ ﻮزﯾ ﻊ‬
‫اﺣﺘﻤﺎﻟﯽ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﻣﺘﻨﺎﻇﺮ ﺑﺎ ﺧﺼﻮﺻﯿﺖ ﻣﻮرد ﺑﺮرﺳﯽ در ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺎﺷﯿﻢ‪.‬‬

‫ﺷﻨﺎﺧﺖ ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻟﯽ ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺑﻪ دو ﺻﻮرت اﺳﺖ‪:‬‬


‫‪ .١‬ﻓﺮم ﺗﻮزﯾﻊ اﺣﺘﻤﺎﻟﯽ ﻧﺎﻣﺸﺨﺺ اﺳﺖ‪.‬‬

‫‪ .٢‬ﻓ ﺮم ﺗ ﻮزﯾ ﻊ اﺣ ﺘ ﻤ ﺎﻟ ﯽ ﻣ ﺸ ﺨ ﺺ اﺳ ﺖ و ﺑ ﺮﺧ ﯽ از ﺧ ﺼ ﻮﺻ ﯿ ﺎت ﺗ ﻮزﯾ ﻊ )ﭘ ﺎراﻣ ﺘ ﺮھ ﺎی ﺗ ﻮزﯾ ﻊ( ﻧ ﺎﻣ ﻌ ﻠ ﻮم اﺳ ﺖ‪.‬‬


‫ﺑﺮای ﻣﺜﺎل‪ ،‬ﻓﺮض ﮐﻨﯿﺪ )‪ .X ∼ N (µ, ۱‬در اﯾﻨﺠﺎ ﺗﻮزﯾﻊ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬ﻧﺮﻣﺎل اﺳﺖ اﻣﺎ ﻣﯿﺎﻧﮕﯿﻦ اﯾﻦ‬
‫ﺗﻮزﯾﻊ ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫در اﯾ ﻦ درس ﻣ ﺎ ﺑ ﺎ ﺣ ﺎﻟ ﺖ دوم ﺳ ﺮو ﮐ ﺎر دارﯾ ﻢ‪ .‬ﯾ ﻌ ﻨ ﯽ ﺗ ﻮزﯾ ﻊ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ﻣ ﻌ ﻠ ﻮم و ﺑ ﺮﺧ ﯽ از ﻣ ﺸ ﺨ ﺼ ﺎت آن‬
‫ﻧﺎﻣﻌﻠﻮم اﺳﺖ و ﺑﻪ دﻧﺒﺎل ﯾﺎﻓﺘﻦ راھﯽ ﺑﺮای دﺳﺘﯿﺎﺑﯽ ﺑﻪ ﻣﺸﺨﺼﺎت ﻧﺎﻣﻌﻠﻮم ھﺴﺘﯿﻢ‪.‬‬
‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .١-۵‬ﺧ ﺼ ﻮﺻ ﯿ ﺘ ﯽ از ﺟ ﺎﻣ ﻌ ﻪ ﮐ ﻪ ﺛ ﺎﺑ ﺖ و ﻧ ﺎﻣ ﻌ ﻠ ﻮم اﺳ ﺖ را ﭘ ﺎراﻣ ﺘ ﺮ ﻣ ﯽ ﻧ ﺎﻣ ﻨ ﺪ و ﻣ ﻌ ﻤ ﻮﻻ‪ ‬آن را ﺑ ﺎ ﻧ ﻤ ﺎد ‪θ‬‬
‫ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‪ .‬ﺑﺮای ﻣﺜﺎل‪،‬‬
‫اﮔﺮ )‪ X ∼ N (µ, ۱‬آن ﮔﺎه ‪.θ = µ‬‬
‫اﮔﺮ ) ‪ X ∼ N (۱۰, σ ۲‬آن ﮔﺎه ‪.θ = σ ۲‬‬
‫اﮔﺮ )‪ X ∼ Be(p‬آن ﮔﺎه ‪.θ = p‬‬
‫اﮔﺮ )‪ X ∼ Bin(۱۰, p‬آن ﮔﺎه ‪.θ = p‬‬
‫ﺑﺮای دﺳﺘﯿﺎﺑﯽ ﺑﻪ ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل دو روش وﺟﻮد دارد‪:‬‬
‫‪ .١‬ﺑﺎ اﺳﺘﻔﺎده از ﺳﺮﺷﻤﺎری‪ ،‬اﻃﻼﻋﺎت ﮐﻞ ﺟﺎﻣﻌﻪ را ﺛﺒﺖ ﮐﺮده و ﻣﻘﺪار دﻗﯿﻖ ﭘﺎراﻣﺘﺮ را ﺑﺪﺳﺖ آورﯾﻢ‪ .‬ﺑﻪ ﻃﻮر‬
‫ﻣﺜﺎل‪ ،‬اﮔﺮ ﺗﻮزﯾﻊ ﺧﺼﻮﺻﯿﺖ ﻣﻮرد ﺑﺮرﺳﯽ در ﺟﺎﻣﻌﻪ آﻣﺎری‪ ،‬ﻧﺮﻣﺎل ﺑﺎ ﭘﺎراﻣﺘﺮ ﻧﺎﻣﻌﻠﻮم ‪ θ = µ‬ﺑﺎﺷﺪ دارﯾﻢ‬

‫)‪X۱ , X۲ , . . . , XN ∼ N (µ, ۱۰۰‬‬ ‫‪θ=µ‬‬

‫ﺑﺎ اﺳﺘﻔﺎده از روش ﺳﺮﺷﻤﺎری اﻃﻼﻋﺎت ﮐﻞ ﺟﺎﻣﻌﻪ را ﺛﺒﺖ ﻣﯽ ﮐﻨﯿﻢ‪:‬‬

‫‪x۱ , x۲ , . . . , xN‬‬

‫و ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ ‪ ،θ = µ‬ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ اﺳﺖ آن را ﺑﻪ ﺻﻮرت‬


‫∑‪۱‬‬
‫‪N‬‬
‫=‪µ‬‬ ‫‪xi‬‬
‫‪N‬‬
‫‪i=۱‬‬

‫ﺑ ﻪ ﻃ ﻮر دﻗ ﯿ ﻖ ﺑ ﺪﺳ ﺖ ﻣ ﯽ آورﯾ ﻢ‪ .‬اﻣ ﺎ ھ ﻤ ﯿ ﺸ ﻪ اﻣ ﮑ ﺎن ﺳ ﺮﺷ ﻤ ﺎری از ﺟ ﺎﻣ ﻌ ﻪ آﻣ ﺎری وﺟ ﻮد ﻧ ﺪارد‪ .‬در اﯾ ﻦ‬


‫ﺻﻮرت‪ ،‬روش دوم ﭘﯿﺸﻨﻬﺎد ﻣﯽ ﺷﻮد‪.‬‬

‫‪٧۶‬‬
‫‪ .٢‬ﺑﺎ اﺳﺘﻔﺎده از ﻧﻤﻮﻧﻪ ﮔﯿﺮی‪ ،‬اﻃﻼﻋﺎت ﺑﺨﺸﯽ از ﺟﺎﻣﻌﻪ را ﺛﺒﺖ ﮐﺮده و ﭘﺎراﻣﺘﺮ ﻣﻮردﻧﻈﺮ را ﺗﺨﻤﯿﻦ ﻣﯽ زﻧﯿﻢ‬
‫ﯾﺎ ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ ﺑﺮآورد ﻣﯽ ﮐﻨﯿﻢ‪.‬‬

‫ﻧﻤﻮﻧﻪ ﮔﯿﺮی از ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺎﯾﺪ ﺑﻪ ﮔﻮﻧﻪ ای ﺑﺎﺷﺪ ﮐﻪ ﻣﻨﺠﺮ ﺑﻪ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﮔﺮدد‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٢-۵‬ﻧﻤﻮﻧﻪ ای را ﺗﺼﺎدﻓﯽ ﮔﻮﯾﻨﺪ ﮐﻪ ھﻤﻪ اﻋﻀﺎی ﺟﺎﻣﻌﻪ ﺷﺎﻧﺲ ﻗﺮار ﮔﺮﻓﺘﻦ در آن ﻧﻤﻮﻧﻪ را داﺷﺘﻪ ﺑﺎﺷﺪ‪.‬‬

‫در ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ‪ ،‬اﻋﻀﺎی ﻧﻤﻮﻧﻪ ﻣﺴﺘﻘﻞ و ھﻢ ﺗﻮزﯾﻊ ﺑﺎ ﺗﻮزﯾﻊ ﺟﺎﻣﻌﻪ ھﺴﺘﻨﺪ‪ .‬در واﻗﻊ دارﯾﻢ‪:‬‬
‫‪ :X۱ , X۲ , . . . , XN ∼ fθ‬ﺟﺎﻣﻌﻪ آﻣﺎری‬
‫‪ :X۱ , X۲ , . . . , Xn ∼ fθ‬ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ‬

‫در روش ﻧ ﻤ ﻮﻧ ﻪ ﮔ ﯿ ﺮی ھ ﻤ ﻮاره ﺑ ﻪ دﻧ ﺒ ﺎل ﺗ ﺎﺑ ﻌ ﯽ از ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ ھ ﺴ ﺘ ﯿ ﻢ ﮐ ﻪ ھ ﯿ ﭻ ﻋ ﻨ ﺼ ﺮ‬


‫ﻧ ﺎﻣ ﻌ ﻠ ﻮﻣ ﯽ در آن وﺟ ﻮد ﻧ ﺪاﺷ ﺘ ﻪ ﺑ ﺎﺷ ﺪ و ﺑ ﺘ ﻮاﻧ ﯿ ﻢ ﺑ ﻪ وﺳ ﯿ ﻠ ﻪ آن ﭘ ﺎراﻣ ﺘ ﺮ ﻣ ﺠ ﻬ ﻮل را ﺗ ﺨ ﻤ ﯿ ﻦ‬
‫ﺑﺰﻧﯿﻢ ﯾﺎ ﺑﺮآورد ﮐﻨﯿﻢ‪ .‬ﺑﻪ ﭼﻨﯿﻦ ﺗﺎﺑﻌﯽ ﺑﺮآوردﮔﺮ و ﺑﻪ اﯾﻦ روش ﺑﺮآوردﯾﺎﺑﯽ ﮔﻮﯾﻨﺪ‪.‬‬

‫ﺑﺮآوردﯾﺎﺑﯽ ﺑﻪ دو روش اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد‪:‬‬

‫• ﺑﺮآورد ﻧﻘﻄﻪ ای‬

‫• ﺑﺮآورد ﻓﺎﺻﻠﻪ ای‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﻄﺎﻟﺐ اراﺋﻪ ﺷﺪه ﻣﯽ ﺗﻮان آﻣﺎر اﺳﺘﻨﺒﺎﻃﯽ را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﮐﺮد‪.‬‬

‫ﺗﻌﺮﯾﻒ ‪ .٣-۵‬آﻣﺎر اﺳﺘﻨﺒﺎﻃﯽ روﺷﯽ اﺳﺖ ﮐﻪ ﺑﻪ وﺳﯿﻠﻪ آن ﺑﺮاﺳﺎس ﻧﺘﺎﯾﺞ ﺣﺎﺻﻞ از ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ در ﻣﻮرد ﮐﻞ‬
‫ﺟﺎﻣﻌﻪ ﺑﺎ ﭘﺎراﻣﺘﺮھﺎی ﻣﺠﻬﻮل ﺟﺎﻣﻌﻪ‪ ،‬ﻧﺘﯿﺠﻪ ﮔﯿﺮی ھﺎﯾﯽ اﻧﺠﺎم ﻣﯽ ﮔﯿﺮد‪.‬‬

‫اﺳﺘﻨﺒﺎط آﻣﺎری دارای دو ﺷﺎﺧﻪ ﻣﻬﻢ زﯾﺮ اﺳﺖ‪:‬‬

‫• ﺑﺮآورد ﭘﺎراﻣﺘﺮھﺎی ﻣﺠﻬﻮل ﺟﺎﻣﻌﻪ‬

‫• آزﻣﻮن ﻓﺮض ھﺎی آﻣﺎری درﺑﺎره ﭘﺎراﻣﺘﺮھﺎی ﻣﺠﻬﻮل ﺟﺎﻣﻌﻪ‬

‫‪٧٧‬‬
‫‪ ١.۵‬ﺑﺮآورد ﻧﻘﻄﻪ ای‬
‫ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X۱ , X۲ , . . . , Xn‬ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ ‪ n‬ﺗ ﺎﯾ ﯽ ﺑ ﺎ ﻣ ﻘ ﺎدﯾ ﺮ ﻣ ﺸ ﺎھ ﺪه ﺷ ﺪه ‪ x۱ , x۲ , . . . , xn‬از ﺟ ﺎﻣ ﻌ ﻪ‬
‫آﻣ ﺎری ‪ X۱ , X۲ , . . . , XN‬ﺑ ﺎ ﺗ ﻮزﯾ ﻊ اﺣ ﺘ ﻤ ﺎل )‪ fθ (x‬اﺳ ﺖ ﮐ ﻪ اﯾ ﻦ ﺗ ﻮزﯾ ﻊ اﺣ ﺘ ﻤ ﺎل ﺑ ﻪ ﭘ ﺎراﻣ ﺘ ﺮ ﻣ ﺠ ﻬ ﻮل ‪ θ‬واﺑ ﺴ ﺘ ﻪ‬
‫اﺳﺖ‪ .‬ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ‬
‫)‪ :X۱ , X۲ , . . . , XN ∼ fθ (x‬ﺟﺎﻣﻌﻪ آﻣﺎری‬
‫)‪ :X۱ , X۲ , . . . , Xn ∼ fθ (x‬ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ‬
‫‪ :θ‬ﭘﺎراﻣﺘﺮ ﻧﺎﻣﻌﻠﻮم‬
‫ھﺪف از ﺑﺮآوردﯾﺎﺑﯽ‪ ،‬ﯾﺎﻓﺘﻦ ﮐﻤﯿﺘﯽ از ﻣﻘﺎدﯾﺮ ‪ x۱ , x۲ , . . . , xn‬ﺑﻪ ﻋﻨﻮان ﺗﻘﺮﯾﺒﯽ )ﯾﺎ ﺑﺮآوردی( از ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل‬
‫‪ θ‬اﺳﺖ‪.‬‬
‫در روش ﺑ ﺮآورد ﻧ ﻘ ﻄ ﻪ ای‪ ،‬ﺑ ﺮاﺳ ﺎس ﻣ ﻘ ﺎدﯾ ﺮ ﻣ ﺸ ﺎھ ﺪه ﺷ ﺪه ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ ‪ ،x۱ , x۲ , . . . , xn‬ﺗ ﺎﺑ ﻌ ﯽ را ﺑ ﻪ‬
‫ﻋﻨﻮان ﺗﻘﺮﯾﺒﯽ از ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ﺟﺎﻣﻌﻪ اراﺋﻪ ﻣﯽ دھﯿﻢ‪.‬‬
‫)‪ :X۱ , X۲ , . . . , XN ∼ fθ (x‬ﺟﺎﻣﻌﻪ آﻣﺎری‬
‫)‪ :X۱ , X۲ , . . . , Xn ∼ fθ (x‬ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ‬
‫) ‪ :T = g(X۱ , X۲ , . . . , Xn‬ﺑﺮآوردﮔﺮ )ﺗﺎﺑﻌﯽ از ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﺪون ﻋﻨﺼﺮ ﻣﺠﻬﻮل(‬
‫) ‪ :t = g(x۱ , x۲ , . . . , xn‬ﺑﺮآورد )ﻣﻘﺪار ﻣﺸﺎھﺪه ﺷﺪه ﺑﺮآوردﮔﺮ(‬

‫ﻣﺜﺎل ‪ .۴-۵‬آزﻣﺎﯾﺶ ﺑﺮرﺳﯽ ﻗﺪ اﻓﺮاد ﯾﮏ اداره را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬


‫)‪ :X۱ , X۲ , . . . , XN ∼ N (µ, ۱۰۰‬ﺟﺎﻣﻌﻪ آﻣﺎری‬
‫)‪ :X۱ , X۲ , X۳ , X۴ ∼ N (µ, ۱۰۰‬ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ‪۴‬ﺗﺎﯾﯽ‬
‫‪∑۴‬‬
‫= ‪ :T = g(X۱ , X۲ , X۳ , X۴ ) = X‬ﺑﺮآوردﮔﺮ‬ ‫‪۱‬‬
‫‪۴‬‬ ‫‪i=۱‬‬ ‫‪Xi‬‬
‫اﮔﺮ ﻣﻘﺎدﯾﺮ ﻣﺸﺎھﺪه ﺷﺪه ﻧﻤﻮﻧﻪ ﺑﻪ ﺻﻮرت ‪ x۳ = ۱۶۵ ،x۲ = ۱۶۸ ،x۱ = ۱۷۲‬و ‪ x۴ = ۱۷۵‬ﺑﺎﺷﺪ‪ ،‬آن ﮔﺎه‬
‫ﻣﻘﺪار ﻣﺸﺎھﺪه ﺷﺪه ﺑﺮآوردﮔﺮ ‪ X‬ﺑﺮاﺑﺮ اﺳﺖ ﺑﺎ‬

‫∑‪۱‬‬
‫‪۴‬‬
‫=‪x‬‬ ‫‪x = ۱۷۰‬‬
‫‪۴ i=۱ i‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺎ اﺳﺘﻔﺎده از ﻧﻤﻮﻧﻪ ﻓﻮق‪ ،‬ﻣﯿﺎﻧﮕﯿﻦ ﻗﺪ اﻓﺮاد را ‪ ١٧٠‬ﺗﺨﻤﯿﻦ ﻣﯽ زﻧﯿﻢ‪.‬‬

‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ ﺑ ﺮآوردﮔ ﺮ ﺗ ﺎﺑ ﻌ ﯽ از ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ اﺳ ﺖ‪ ،‬ﭘ ﺲ ﺑ ﺮای ﯾ ﮏ ﭘ ﺎراﻣ ﺘ ﺮ ﻣ ﺠ ﻬ ﻮل ﻣ ﯽ ﺗ ﻮان‬


‫ﺑﺮآوردﮔﺮھﺎی زﯾﺎدی را ﻣﻌﺮﻓﯽ ﻧﻤﻮد‪ .‬ﺣﺎل اﯾﻦ ﺳﻮال ﻣﻄﺮح ﻣﯽ ﺷﻮد ﮐﻪ در ﺑﯿﻦ ﺑﺮآوردﮔﺮھﺎی ﯾﮏ ﭘﺎراﻣﺘﺮ‪ ،‬ﮐﺪام‬
‫ﯾﮏ ﺑﻬﺘﺮﯾﻦ اﺳﺖ‪.‬‬

‫‪٧٨‬‬
‫ﻣﻌﯿﺎرھﺎی ﻣﺨﺘﻠﻔﯽ ﺑﺮای ﺳﻨﺠﺶ ﺑﻬﺘﺮﯾﻦ ﺑﺮآوردﮔﺮ وﺟﻮد دارد ﮐﻪ در اﯾﻨﺠﺎ ﺑﻪ ذﮐﺮ دو ﻣﻌﯿﺎر ﻣﯽ ﭘﺮدازﯾﻢ‪.‬‬

‫‪ .١‬ﻧﺎارﯾﺒﯽ‪:‬‬

‫ﺑﺮآوردﮔﺮ ) ‪ T = g(X۱ , X۲ , . . . , Xn‬را ﯾﮏ ﺑﺮآوردﮔﺮ ﻧﺎارﯾﺐ ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ‬ﮔﻮﯾﻨﺪ ھﺮﮔﺎه‬

‫‪E(T ) = θ‬‬

‫ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ‪ ،‬اﮔﺮ ﻣﺘﻮﺳﻂ ﻣﻘﺪار ﺑﺮآوردﮔﺮ ‪ T‬ﺑﻪ ازای ﻧﻤﻮﻧﻪ ھﺎی ﻣﺨﺘﻠﻒ‪ ،‬ﺑﺮاﺑﺮ ﺑﺎ ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺎﺷﺪ آن ﮔﺎه ‪T‬‬
‫را ﺑﺮای ‪ θ‬ﻧﺎارﯾﺐ ﮔﻮﯾﻨﺪ‪ .‬ﺑﺮای روﺷﻦ ﺷﺪن اﯾﻦ ﻣﻔﻬﻮم ﺑﻪ ﻣﺜﺎل زﯾﺮ ﺗﻮﺟﻪ ﮐﻨﯿﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .۵-۵‬ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺎ ﭼﻬﺎر ﻋﻀﻮ و ﻣﻘﺎدﯾﺮ زﯾﺮ داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪:‬‬

‫‪X۱ , X۲ , X۳ , X۴‬‬ ‫‪N =۴‬‬

‫‪x۱ = ۱ , x۲ = ۲ , x۳ = ۳ , x۴ = ۴‬‬ ‫‪=⇒ µ = ۲٫ ۵‬‬

‫اﮔﺮ ﺑﺨﻮاھﯿﻢ ﻧﻤﻮﻧﻪ ای ﺑﺎ ﺳﻪ ﻋﻀﻮ از اﯾﻦ ﺟﺎﻣﻌﻪ اﻧﺘﺨﺎب ﮐﻨﯿﻢ‪ ،‬ﺗﻌﺪاد ﻧﻤﻮﻧﻪ ھﺎی ﺳﻪ ﻋﻀﻮی ﻣﻤﮑﻦ ﺑﺮاﺑﺮ ﺑﺎ ‪۴‬‬
‫ﻧﻤﻮﻧﻪ ﺑﺎ ﺑﺮآوردھﺎی زﯾﺮ اﺳﺖ‪:‬‬

‫‪X۱ , X۲ , X۳‬‬ ‫‪=⇒ x̄۱ = ۲‬‬

‫‪X۱ , X۲ , X۴‬‬ ‫‪=⇒ x̄۲ = ۲٫ ۳۳‬‬

‫‪X۱ , X۳ , X۴‬‬ ‫‪=⇒ x̄۳ = ۲٫ ۶۶‬‬

‫‪X۲ , X۳ , X۴‬‬ ‫‪=⇒ x̄۴ = ۳‬‬

‫واﺿ ﺢ اﺳ ﺖ ﮐ ﻪ ﻣ ﻘ ﺎدﯾ ﺮ ‪ x‬ﺑ ﺪﺳ ﺖ آﻣ ﺪه ﮐ ﻮﭼ ﮑ ﺘ ﺮ ﯾ ﺎ ﺑ ﺰرﮔ ﺘ ﺮ از ﻣ ﻘ ﺪار ‪ µ‬اﺳ ﺖ‪ .‬ﺑ ﺪﯾ ﻦ ﻣ ﻌ ﻨ ﺎ ﮐ ﻪ ﺑ ﺮآورد ﺑ ﺪﺳ ﺖ آﻣ ﺪه‬


‫ﺗﻮﺳﻂ ھﺮ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﻣﯽ ﺗﻮاﻧﺪ ﺑﺰرﮔﺘﺮ‪ ،‬ﮐﻮﭼﮑﺘﺮ و ﯾﺎ ﻣﺴﺎوی ﺑﺎ ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ ﺑﺎﺷﺪ و ﻟﺰوﻣﯽ ﻧﺪارد ﮐﻪ ھﻤﯿﺸﻪ‬
‫ﺑﺮاﺑﺮ ﺑﺎ ‪ µ‬ﺑﺎﺷﺪ زﯾﺮا ﺑﺮآورد ﺑﺪﺳﺖ آﻣﺪه ﺗﻘﺮﯾﺐ‪ ،‬ﺗﺨﻤﯿﻦ و ﯾﺎ ﺑﺮآوردی از ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ اﺳﺖ‪ .‬اﯾﻦ در ﺣﺎﻟﯽ اﺳﺖ‬
‫ﮐﻪ دارﯾﻢ‪:‬‬
‫‪x۱ + x۲ + x۳ + x۴‬‬ ‫‪۱۰‬‬
‫=‬ ‫‪= ۲٫ ۵ = µ‬‬
‫‪۴‬‬ ‫‪۴‬‬
‫ﯾﻌﻨﯽ ﺑﻪ ﻃﻮر ﻣﺘﻮﺳﻂ ﻣﯿﺎﻧﮕﯿﻦ ﻧﻤﻮﻧﻪ ای ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ ﺑﺮاﺑﺮ اﺳﺖ‪.‬‬

‫ﻧﮑﺘﻪ ﻣﻬﻢ‪ :‬در اﯾﻦ درس ﺗﻮزﯾﻊ ھﺎی ﻣﻮرد ﺑﺮرﺳﯽ‪ ،‬ﺗﻮزﯾﻊ دوﺟﻤﻠﻪ ای و ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﺳﺖ ﮐﻪ در اﯾﻨﺠﺎ ﺑﻪ ذﮐﺮ‬
‫ﭘﺎراﻣﺘﺮھﺎ و ﺑﺮآوردﮔﺮھﺎی ﻧﺎارﯾﺐ آن ھﺎ ﻣﯽ ﭘﺮدازﯾﻢ‪.‬‬

‫‪٧٩‬‬
‫• ﺗﻮزﯾﻊ دوﺟﻤﻠﻪ ای‪ :‬ﻓﺮض ﮐﻨﯿﺪ‬

‫) ‪X۱ , X۲ , . . . , XN ∼ Bin(m, PN‬‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ Bin(m, PN‬‬

‫ﺑ ﻪ ﻃ ﻮری ﮐ ﻪ ‪ m‬ﻣ ﻌ ﻠ ﻮم و ‪ θ = PN‬ﻧ ﺎﻣ ﻌ ﻠ ﻮم ﺑ ﺎﺷ ﺪ‪ .‬ﻣ ﯽ داﻧ ﯿ ﻢ ﮐ ﻪ ‪ ،PN‬ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓ ﻘ ﯿ ﺖ و ﯾ ﺎ اﺣ ﺘ ﻤ ﺎل ﻣ ﻮﻓ ﻘ ﯿ ﺖ‬


‫اﺳﺖ ﭘﺲ ﻣﯽ ﺗﻮان آن را ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﻤﺎﯾﺶ داد‪:‬‬
‫‪T‬‬
‫= ‪PN‬‬
‫‪N‬‬
‫ﺑﻪ ﻃﻮری ﮐﻪ ‪ ،T‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ ھﺎ در ﺟﺎﻣﻌﻪ ﺑﻮده و ‪ N‬ﺣﺠﻢ ﺟﺎﻣﻌﻪ اﺳﺖ‪ .‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ ‪PN‬‬
‫)ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓ ﻘ ﯿ ﺖ ھ ﺎ در ﺟ ﺎﻣ ﻌ ﻪ(‪ ،‬ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓ ﻘ ﯿ ﺘ ﻬ ﺎ در ﻧ ﻤ ﻮﻧ ﻪ اﺳ ﺖ ﮐ ﻪ آن را ﺑ ﺎ ‪ Pn‬ﻧ ﻤ ﺎﯾ ﺶ ﻣ ﯽ دھ ﯿ ﻢ و دارﯾ ﻢ‬
‫= ‪ Pn‬ﮐﻪ در آن ‪ t‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ ھﺎ در ﻧﻤﻮﻧﻪ و ‪ n‬ﺣﺠﻢ ﻧﻤﻮﻧﻪ اﺳﺖ‪.‬‬ ‫‪t‬‬
‫‪n‬‬

‫ﺗ ﻮﺟ ﻪ ﮐ ﻨﯿ ﺪ ﮐ ﻪ ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓﻘ ﯿ ﺖ ھ ﺎ در ﻧﻤ ﻮﻧ ﻪ‪ ،‬ﺑ ﺮای ﭘﺎراﻣ ﺘ ﺮ ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓﻘ ﯿ ﺖ ھﺎ در ﺟ ﺎﻣﻌ ﻪ ﻧﺎارﯾ ﺐ اﺳ ﺖ‪ .‬ﺑﻪ‬


‫ﻋﺒﺎرت دﯾﮕﺮ‬
‫‪E(Pn ) = PN‬‬

‫• ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪ :‬ﻓﺮض ﮐﻨﯿﺪ ) ‪ .X۱ , X۲ , . . . , XN ∼ N (µ, σ ۲‬ﭘﺲ اﯾﻦ ﺟﺎﻣﻌﻪ دارای دو ﭘﺎراﻣﺘﺮ اﺳﺖ ﮐﻪ‬
‫آن ھﺎ را ﺑﺎ ‪ θ۱ = µ‬و ‪ θ۲ = σ ۲‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪ .‬درواﻗﻊ دارﯾﻢ‪:‬‬

‫∑‪۱‬‬
‫‪N‬‬
‫= ‪θ۱ = µ‬‬ ‫‪Xi‬‬ ‫‪or‬‬ ‫)‪µ = E(X‬‬
‫‪N‬‬
‫‪i=۱‬‬

‫‪۱‬‬ ‫∑‬‫‪N‬‬
‫= ‪θ۲ = σ ۲‬‬ ‫‪(Xi − µ)۲‬‬ ‫‪or‬‬ ‫)‪σ ۲ = Var(X‬‬
‫‪N‬‬
‫‪i=۱‬‬

‫⋆ ﻣﯿﺎﻧﮕﯿﻦ ﻧﻤﻮﻧﻪ ﯾﻌﻨﯽ ‪ ،X‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ۱ = µ‬اﺳﺖ ﺑﻪ ﻃﻮری ﮐﻪ‬
‫∑‪۱‬‬
‫‪n‬‬
‫=‪X‬‬ ‫‪Xi‬‬
‫‪n‬‬
‫‪i=۱‬‬

‫ﺑﺮآوردﮔﺮ ‪ X‬ﯾﮏ ﺑﺮآوردﮔﺮ ﻧﺎارﯾﺐ ﺑﺮای ‪ µ‬اﺳﺖ و دارﯾﻢ ‪.E(X) = µ‬‬

‫‪ ،Sn−‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ۲ = σ ۲‬اﺳﺖ ﺑﻪ ﻃﻮری ﮐﻪ‬


‫‪۲‬‬
‫⋆ وارﯾﺎﻧﺲ ﻧﻤﻮﻧﻪ ‪۱‬‬

‫‪۱‬‬ ‫∑‬
‫‪n‬‬
‫‪۲‬‬
‫= ‪Sn−۱‬‬ ‫‪(Xi − X)۲‬‬
‫‪n−۱‬‬
‫‪i=۱‬‬

‫‪.E(Sn−‬‬
‫‪ S ۲‬ﯾﮏ ﺑﺮآوردﮔﺮ ﻧﺎارﯾﺐ ﺑﺮای ‪ σ ۲‬اﺳﺖ و دارﯾﻢ ‪۲ ) = σ ۲‬‬
‫‪۱‬‬ ‫ﺑﺮآوردﮔﺮ ‪n−۱‬‬

‫‪٨٠‬‬
‫‪∑n‬‬
‫= ‪ Sn۲‬ﻧ ﯿ ﺰ ﺗ ﻌ ﺮﯾ ﻒ ﺷ ﻮد اﻣ ﺎ‬ ‫‪۱‬‬
‫‪n‬‬ ‫‪i=۱ (Xi‬‬ ‫ﺷ ﺎﯾ ﺎن ذﮐ ﺮ اﺳ ﺖ ﮐ ﻪ وارﯾ ﺎﻧ ﺲ ﻧ ﻤ ﻮﻧ ﻪ ای ﻣ ﯽ ﺗ ﻮاﻧ ﺪ ﺑ ﻪ ﺻ ﻮرت ‪− X)۲‬‬
‫‪ E(Sn۲ ) ̸= σ ۲‬و ‪ Sn۲‬ﺑﺮای ﭘﺎراﻣﺘﺮ وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ ﻧﺎارﯾﺐ ﻧﯿﺴﺖ‪ .‬از اﯾﻨﺮو ‪ Sn۲‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮﺑﯽ ﺑﺮای ﭘﺎراﻣﺘﺮ‬
‫وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻧﺨﻮاھﺪ ﺑﻮد‪.‬‬

‫‪ .٢‬ﮐﻤﺘﺮﯾﻦ وارﯾﺎﻧﺲ‪:‬‬

‫اﮔﺮ ‪ T۱‬و ‪ T۲‬دو ﺑﺮآوردﮔﺮ ﻧﺎارﯾﺐ ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ‬ﺑﺎﺷﻨﺪ ﺑﻪ ﻃﻮری ﮐﻪ‬

‫‪Var(T۱ ) < Var(T۲ ),‬‬

‫آن ﮔﺎه ﺑﺮآوردﮔﺮ ‪ T۱‬از ﺑﺮآوردﮔﺮ ‪ T۲‬ﮐﺎراﺗﺮ اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ در ﺑﯿﻦ ﺑﺮآوردﮔﺮھﺎی ﻧﺎارﯾﺐ ﺑﺮای ‪ ،θ‬ﺑﺮآوردﮔﺮی ﮐﻪ‬
‫دارای ﮐﻤﺘﺮﯾﻦ وارﯾﺎﻧﺲ اﺳﺖ را ﮐﺎراﺗﺮﯾﻦ ﺑﺮآوردﮔﺮ ﻣﯽ ﻧﺎﻣﻨﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .۶-۵‬ﻓﺮض ﮐﻨﯿﺪ‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ, σ ۲‬‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ N (µ, σ ۲‬‬

‫= ‪ T۱‬و ‪ ،T۲ = X‬ﮐ ﺪام ﯾ ﮏ ﺑ ﺮآوردﮔ ﺮ ﮐ ﺎراﺗ ﺮی‬ ‫‪X۱ +Xn‬‬


‫‪۲‬‬ ‫ﺑ ﻪ ﻃ ﻮری ﮐ ﻪ ‪ σ ۲‬ﻣ ﻌ ﻠ ﻮم و ‪ θ = µ‬ﻧ ﺎﻣ ﻌ ﻠ ﻮم ﺑ ﺎﺷ ﺪ‪ .‬اﮔ ﺮ‬
‫ﺑﺮای ‪ µ‬اﺳﺖ؟‬
‫ﺣﻞ‪ :‬ﻃﺒﻖ ﺧﻮاص اﻣﯿﺪ رﯾﺎﺿﯽ و وارﯾﺎﻧﺲ ھﺮ ﺗﺎﺑﻊ از ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ دارﯾﻢ‪:‬‬

‫‪X۱ + Xn‬‬ ‫) ‪E(X۱ ) + E(Xn‬‬ ‫‪۲µ‬‬


‫(‪E(T۱ ) = E‬‬ ‫=)‬ ‫=‬ ‫‪=µ‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪n‬‬ ‫‪n‬‬
‫‪nµ‬‬
‫(‪E(T۲ ) = E(X) = E‬‬ ‫= ) ‪Xi‬‬ ‫= ) ‪E(Xi‬‬ ‫‪=µ‬‬
‫‪n‬‬ ‫‪n‬‬ ‫‪n‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬

‫ﭘﺲ ھﺮ دوی اﯾﻦ ﺑﺮآورردﮔﺮھﺎ‪ ،‬ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ = µ‬ﻧﺎارﯾﺐ ھﺴﺘﻨﺪ‪.‬‬


‫‪X۱ + Xn‬‬ ‫) ‪Var(X۱ ) + Var(Xn‬‬ ‫‪۲σ ۲ σ ۲‬‬
‫(‪Var(T۱ ) = Var‬‬ ‫=)‬ ‫=‬ ‫=‬
‫‪۲‬‬ ‫‪۴‬‬ ‫‪۴‬‬ ‫‪۲‬‬
‫∑‪۱‬‬ ‫∑ ‪۱‬‬
‫‪n‬‬ ‫‪n‬‬
‫‪nσ ۲‬‬ ‫‪σ۲‬‬
‫(‪Var(T۲ ) = Var(X) = Var‬‬ ‫= ) ‪Xi‬‬ ‫= ) ‪Var(Xi‬‬ ‫=‬
‫‪n‬‬ ‫‪n۲‬‬ ‫‪n۲‬‬ ‫‪n‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬

‫واﺿﺢ اﺳﺖ ﮐﻪ‬


‫‪σ۲‬‬ ‫‪σ۲‬‬
‫= ) ‪Var(T۱‬‬ ‫= ) ‪> Var(T۲‬‬
‫‪۲‬‬ ‫‪n‬‬
‫= ‪ T۱‬اﺳﺖ‪.‬‬ ‫‪X۱ +Xn‬‬
‫‪۲‬‬ ‫و ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺮآوردﮔﺮ ‪ T۲ = X‬ﮐﺎراﺗﺮ از‬

‫‪٨١‬‬
‫‪ ٢.۵‬ﺑﺮآورد ﻧﻘﻄﻪ ای ﭘﺎراﻣﺘﺮ دو ﺟﺎﻣﻌﻪ‬
‫ھﻤﺎﻧﻄﻮر ﮐﻪ ﻗﺒﻼ‪ ‬ھﻢ ﺑﯿﺎن ﺷﺪ‪ ،‬در اﺳﺘﻨﺒﺎط آﻣﺎری ھﺪف ﺷﻨﺎﺧﺖ ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺮاﺳﺎس ﯾﮏ ﯾﺎ ﭼﻨﺪ ﻣﺸﺨﺼﻪ‬
‫)ﻣﺘﻐﯿﺮ( اﺳﺖ‪ .‬ﯾﮑﯽ از راه ھﺎی ﺷﻨﺎﺧﺖ ﯾﮏ ﺟﺎﻣﻌﻪ آﻣﺎری‪ ،‬ﻣﻘﺎﯾﺴﻪ آن ﺑﺎ ﯾﮏ ﯾﺎ ﭼﻨﺪ ﺟﺎﻣﻌﻪ آﻣﺎری دﯾﮕﺮ اﺳﺖ‪.‬‬
‫از اﯾﻨﺮو‪ ،‬در اﯾﻦ ﻗﺴﻤﺖ ﺑﻪ ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﯽ ﭘﺮدازﯾﻢ‪.‬‬

‫‪ ١.٢.۵‬ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﻧﺮﻣﺎل‬


‫دو ﺟ ﺎﻣ ﻌ ﻪ ﻣ ﺴ ﺘ ﻘ ﻞ را در ﻧ ﻈ ﺮ ﺑ ﮕ ﯿ ﺮﯾ ﺪ ﮐ ﻪ ﺑ ﺮاﺳ ﺎس ﯾ ﮏ ﻣ ﺸ ﺨ ﺼ ﻪ ﺑ ﺮرﺳ ﯽ و ﺑ ﺎھ ﻢ ﻣ ﻘ ﺎﯾ ﺴ ﻪ ﻣ ﯽ ﮔ ﺮدﻧ ﺪ‪ .‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬
‫ﺗﻮزﯾﻊ آﻣﺎری ﻣﺸﺨﺼﻪ ﻣﻮرد ﻧﻈﺮ در دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎﺷﺪ‪.‬‬

‫• ﺟﺎﻣﻌﻪ اول‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲ ) :‬‬


‫ﺣﺠﻢ ﻧﻤﻮﻧﻪ‪N :‬‬
‫ﻣﺸﺨﺼﻪ )ﻣﺘﻐﯿﺮ( ﻣﻮرد ﺑﺮرﺳﯽ‪X :‬‬
‫ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ‪µ۱ :‬‬
‫وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ‪σ۱۲ :‬‬

‫• ﺟﺎﻣﻌﻪ دوم‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲ ) :‬‬


‫ﺣﺠﻢ ﻧﻤﻮﻧﻪ‪M :‬‬
‫ﻣﺸﺨﺼﻪ )ﻣﺘﻐﯿﺮ( ﻣﻮرد ﺑﺮرﺳﯽ‪Y :‬‬
‫ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ‪µ۲ :‬‬
‫وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ‪σ۲۲ :‬‬

‫ﺑ ﺮای ﻣ ﺜ ﺎل‪ ،‬ﺟ ﺎﻣ ﻌ ﻪ اول را داﻧ ﺸ ﺠ ﻮﯾ ﺎن دﺧ ﺘ ﺮ و ﺟ ﺎﻣ ﻌ ﻪ دوم را داﻧ ﺸ ﺠ ﻮﯾ ﺎن ﭘ ﺴ ﺮ در ﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ و ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬


‫ﻣﺸﺨﺼﻪ ﻣﻮرد ﺑﺮرﺳﯽ‪ ،‬ﻧﻤﺮات ﭘﺎﯾﺎﻧﺘﺮم آن ھﺎ ﺑﺎﺷﺪ‪ .‬ھﺪف از ﻣﻘﺎﯾﺴﻪ اﯾﻦ دو ﺟﺎﻣﻌﻪ‪ ،‬ﺷﻨﺎﺧﺖ ﺑﻬﺘﺮ آن ھﺎ اﺳﺖ‪.‬‬
‫ﺑﺮای ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎﯾﺪ ﺑﻪ ﺑﺮرﺳﯽ ﭘﺎراﻣﺘﺮھﺎی دو ﺟﺎﻣﻌﻪ ﭘﺮداﺧﺘﻪ ﺷﻮد‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲‬‬

‫ﺑ ﻪ ﻋ ﺒ ﺎرت دﯾ ﮕ ﺮ ﺑ ﺎﯾ ﺪ ﺑ ﻪ ﻣ ﻘ ﺎﯾ ﺴ ﻪ ﻣ ﯿ ﺎﻧ ﮕ ﯿ ﻦ ھ ﺎی دو ﺟ ﺎﻣ ﻌ ﻪ )ﯾ ﻌ ﻨ ﯽ ‪ µ۱‬و ‪ (µ۲‬و ﯾ ﺎ وارﯾ ﺎﻧ ﺲ ھ ﺎی دو ﺟ ﺎﻣ ﻌ ﻪ‬


‫)ﯾﻌﻨﯽ ‪ σ۱۲‬و ‪ (σ۲۲‬ﭘﺮداﺧﺖ‪.‬‬

‫‪٨٢‬‬
‫ﺑﺮاﺳﺎس رواﺑﻂ ﺑﯿﻦ ﻣﯿﺎﻧﮕﯿﻦ ھﺎی دو ﺟﺎﻣﻌﻪ‪ ،‬ﻣﻤﮑﻦ اﺳﺖ ﯾﮑﯽ از ﺳﻪ ﺣﺎﻟﺖ زﯾﺮ را داﺷﺘﻪ ﺑﺎﺷﯿﻢ‪:‬‬

‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺮاﺳﺎس ﻣﯿﺎﻧﮕﯿﻦ آن ھﺎ‬ ‫ﺷﮑﻞ ‪:١-۵‬‬

‫ﭘ ﺲ ﻣ ﯽ ﺗ ﻮان ﭘ ﺎراﻣ ﺘ ﺮی را ﺑ ﺮ روی دو ﺟ ﺎﻣ ﻌ ﻪ ﺑ ﻪ ﺻ ﻮرت ‪ θ = µ۱ − µ۲‬ﺗ ﻌ ﺮﯾ ﻒ ﮐ ﺮد و ﺑ ﺎ ﺑ ﺮآورد آن ﺑ ﻪ ﺻ ﻮرت‬


‫ﻧﻘﻄﻪ ای و ﯾﺎ ﻓﺎﺻﻠﻪ ای‪ ،‬ﺑﻪ ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﭘﺮداﺧﺖ‪.‬‬
‫ﺑﺮای ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﺮاﺳﺎس وارﯾﺎﻧﺲ ھﺎی دو ﺟﺎﻣﻌﻪ ﯾﻌﻨﯽ ‪ σ۱۲‬و ‪ ،σ۲۲‬ﯾﮑﯽ از ﺳﻪ ﺣﺎﻟﺖ‬
‫زﯾﺮ ﻣﻤﮑﻦ اﺳﺖ رخ دھﺪ‪:‬‬

‫ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺮاﺳﺎس وارﯾﺎﻧﺲ آن ھﺎ‬ ‫ﺷﮑﻞ ‪:٢-۵‬‬

‫‪σ۱۲‬‬
‫= ‪ θ‬را ﺗﻌﺮﯾﻒ ﮐﺮد و‬ ‫‪σ۲۲‬‬
‫ﭘﺲ ﺟﻬﺖ ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﺮاﺳﺎس وارﯾﺎﻧﺲ آن ھﺎ ﻣﯽ ﺗﻮان ﭘﺎراﻣﺘﺮ‬
‫آن را ﺑﻪ ﺻﻮرت ﻧﻘﻄﻪ ای و ﻓﺎﺻﻠﻪ ای ﺑﺮآورد ﮐﺮد‪.‬‬

‫ﺑﺮآورد ﻧﻘﻄﻪ ای ﭘﺎراﻣﺘﺮ ‪θ = µ۱ − µ۲‬‬

‫دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﻪ ﺻﻮرت زﯾﺮ دارﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲‬‬

‫‪٨٣‬‬
‫ﺑﺮای ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮ ﺟﺎﻣﻌﻪ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ N (µ۲ , σ۲۲‬‬

‫ﻣﯽ داﻧﯿﻢ ﺑﺮآورد ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ‪ X ،µ۱‬و ﺑﺮآورد ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ‪ Y ،µ۲‬اﺳﺖ‪ .‬ﺑﺎ اﺳﺘﻔﺎده از اﯾﻦ‬
‫واﻗﻌﯿﺖ ﻣﯽ ﺗﻮان ﺑﺮآورد ﻧﻘﻄﻪ ای ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ = µ۱ − µ۲‬را ‪ X − Y‬درﻧﻈﺮ ﮔﺮﻓﺖ‪ .‬ﺟﻬﺖ ﺑﺮرﺳﯽ ﻣﻄﻠﻮﺑﯿﺖ‬
‫اﯾﻦ ﺑﺮآوردﮔﺮ دارﯾﻢ‬
‫‪E(X − Y ) = E(X) − E(Y ) = µ۱ − µ۲‬‬

‫ﭘﺲ ﺑﺮآوردﮔﺮ ‪ X − Y‬ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ = µ۱ − µ۲‬ﻧﺎارﯾﺐ اﺳﺖ‪ .‬ھﻤﭽﻨﯿﻦ دارﯾﻢ‬

‫‪σ۱۲ σ۲۲‬‬
‫= ) ‪Var(X − Y ) = Var(X) + Var(Y‬‬ ‫‪+‬‬
‫‪n‬‬ ‫‪m‬‬

‫و ‪ X − Y‬ﯾﮏ ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ‪ θ = µ۱ − µ۲‬اﺳﺖ‪.‬‬

‫‪σ۱۲‬‬
‫=‪θ‬‬ ‫‪σ۲۲‬‬
‫ﺑﺮآورد ﻧﻘﻄﻪ ای‬

‫دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﻪ ﺻﻮرت زﯾﺮ دارﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲‬‬

‫ﺑﺮای ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮ ﯾﮏ از ﺟﻮاﻣﻊ ﺑﺎﻻ‪ ،‬ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ N (µ۲ , σ۲۲‬‬

‫‪∑n‬‬
‫‪ Sn−‬و ﺑﺮآوردﮔﺮ ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب‬
‫‪۲‬‬
‫= ‪۱‬‬
‫‪۱‬‬
‫‪n−۱‬‬ ‫‪i=۱ (Xi‬‬ ‫ﻣﯽ داﻧﯿﻢ ﺑﺮآوردﮔﺮ ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ‪− X)۲ ،σ۱۲‬‬
‫‪۱ ∑m‬‬
‫‪۲‬‬
‫‪σ۱۲‬‬
‫درﻧﻈﺮ ﮔﺮﻓﺖ‪.‬‬ ‫را ﺑﺮای‬ ‫‪ Sm−‬اﺳﺖ‪ .‬از اﯾﻨﺮو ﻣﯽ ﺗﻮان ﺑﺮآوردﮔﺮ‬ ‫ﺑﺮای ‪i=۱ (Yi − Y ) ،σ۲‬‬
‫‪Sn−‬‬ ‫‪۱‬‬ ‫‪۲‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫‪σ۲۲‬‬ ‫‪۲‬‬
‫‪Sm−‬‬ ‫‪۱ = m−۱‬‬
‫‪۱‬‬
‫‪۲‬‬
‫‪σ۱۲‬‬
‫ﯾﮏ ﺑﺮآوردﮔﺮ ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ‬ ‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ﻣﺤﺎﺳﺒﺎت ﭘﯿﭽﯿﺪه‪ ،‬ﻣﯽ ﺗﻮان ﻧﺸﺎن داد ﮐﻪ‬
‫‪Sn−‬‬ ‫‪۱‬‬
‫‪σ۲۲‬‬ ‫‪۲‬‬
‫‪Sm−‬‬ ‫‪۱‬‬

‫اﺳﺖ‪.‬‬

‫‪٨۴‬‬
‫ﻣﺜﺎل ‪ .٧-۵‬ﺑﺮای ﯾﮏ درس‪ ،‬ﯾﮏ ﮔﺮوه ﺻﺒﺢ و ﯾﮏ ﮔﺮوه ﺑﻌﺪاز ﻇﻬﺮ ﺗﺸﮑﯿﻞ ﻣﯽ ﺷﻮد‪ .‬در آﺧﺮ ﺗﺮم از ﮐﻼس ﺻﺒﺢ‬
‫‪ ٨‬ﻧ ﻔ ﺮ و از ﮐ ﻼس ﺑ ﻌ ﺪاز ﻇ ﻬ ﺮ ‪ ٩‬ﻧ ﻔ ﺮ را ﺑ ﻪ ﺗ ﺼ ﺎدف اﻧ ﺘ ﺨ ﺎب ﮐ ﺮده و از آن ھ ﺎ اﻣ ﺘ ﺤ ﺎن ﮔ ﺮﻓ ﺘ ﻪ ﺷ ﺪه اﺳ ﺖ‪ .‬ﻧ ﺘ ﺎﯾ ﺞ ﺑ ﻪ‬
‫ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ آﻣﺪه اﺳﺖ‪:‬‬

‫‪Class ۱ :‬‬ ‫‪۱۲, ۷, ۱۵, ۱۲, ۱۰, ۸, ۷, ۹‬‬


‫‪Class ۲ :‬‬ ‫‪۱۰, ۱۱, ۵, ۱۶, ۱۸, ۲, ۹, ۷, ۳‬‬

‫ﺑ ﺎ ﻓ ﺮض اﯾ ﻨ ﮑ ﻪ ﻧ ﻤ ﺮات دو ﮐ ﻼس ﻣ ﺴ ﺘ ﻘ ﻞ از ﯾ ﮑ ﺪﯾ ﮕ ﺮ ﺑ ﻮده و ھ ﺮ دو ﮐ ﻼس از ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل ﺗ ﺒ ﻌ ﯿ ﺖ ﮐ ﻨ ﻨ ﺪ‪ ،‬ﯾ ﮏ‬


‫ﺑﺮاورد ﻧﻘﻄﻪ ای ﺑﺮای ﺗﻔﺎﺿﻞ ﻣﯿﺎﻧﮕﯿﻦ ھﺎ و ﻧﺴﺒﺖ وارﯾﺎﻧﺲ ھﺎی آن ھﺎ ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﻓﺮض ﻣﯽ ﮐﻨﯿﻢ ‪ X‬ﻧﻤﺮات ﮐﻼس ﺻﺒﺢ و ‪ Y‬ﻧﻤﺮات ﮐﻼس ﺑﻌﺪازﻇﻬﺮ ﺑﺎﺷﺪ‪ .‬دارﯾﻢ ) ‪ X ∼ N (µ۱ , σ۱۲‬و‬
‫) ‪ .Y ∼ N (µ۲ , σ۲۲‬ﻃﺒﻖ اﻃﻼﻋﺎت ﻣﺴﺎﻟﻪ دارﯾﻢ‬

‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪۸‬‬ ‫‪۸‬‬
‫‪۸۰‬‬
‫‪n = ۸,‬‬ ‫=‪x‬‬ ‫= ‪xi‬‬ ‫‪= ۱۰,‬‬ ‫‪۲‬‬
‫‪Sn−‬‬‫= ‪۱‬‬ ‫‪(x − x)۲ = ۸‬‬
‫‪۸ i=۱‬‬ ‫‪۸‬‬ ‫‪۷ i=۱ i‬‬
‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪۹‬‬ ‫‪۹‬‬
‫‪۸۱‬‬
‫‪m = ۹,‬‬ ‫=‪y‬‬ ‫= ‪yi‬‬ ‫‪= ۹,‬‬ ‫‪۲‬‬
‫= ‪Sm−۱‬‬ ‫‪(yi − y)۲ = ۳۰‬‬
‫‪۹ i=۱‬‬ ‫‪۹‬‬ ‫‪۸ i=۱‬‬
‫‪σ۱۲‬‬
‫= ‪ θ۲‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‬ ‫‪σ۲۲‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺮای ‪ θ۱ = µ۱ − µ۲‬و‬

‫‪S۲‬‬ ‫‪۸‬‬
‫‪θb۱ = x − y = ۱۰ − ۹ = ۱‬‬ ‫= ‪θb۲ = ۲n−۱‬‬ ‫‪.‬‬
‫‪Sm−۱‬‬ ‫‪۳۰‬‬

‫دﻗﺖ ﮐﻨﯿﺪ ﮐﻪ ﻣﻘﺎدﯾﺮ ﺑﺪﺳﺖ آﻣﺪه ﻓﻘﻂ ﺗﻘﺮﯾﺒﯽ ﺑﺮای ‪ θ۱‬و ‪ θ۲‬ھﺴﺘﻨﺪ ﮐﻪ ﺑﺎ اﺳﺘﻔﺎده از ﻧﻤﻮﻧﻪ ﻣﺸﺎھﺪه ﺷﺪه ﺑﺪﺳﺖ‬
‫آﻣﺪه اﻧﺪ‪.‬‬

‫‪ ٢.٢.۵‬ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﺑﺮﻧﻮﻟﯽ‬


‫دو ﺟﺎﻣﻌﻪ ﻣﺴﺘﻘﻞ درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺑﺮاﺳﺎس ﯾﮏ ﻣﺸﺨﺼﻪ ﺑﺮرﺳﯽ و ﺑﺎ ھﻢ ﻣﻘﺎﯾﺴﻪ ﻣﯽ ﮔﺮدﻧﺪ‪ .‬ﻓﺮض ﮐﻨﯿﺪ ﺗﻮزﯾﻊ‬
‫آﻣﺎری ﻣﺸﺨﺼﻪ ﻣﻮردﻧﻈﺮ در دو ﺟﺎﻣﻌﻪ ﺑﺮﻧﻮﻟﯽ اﺳﺖ‪ .‬ﯾﻌﻨﯽ‬

‫) ‪X۱ , X۲ , . . . , XN ∼ Be(PN‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ Be(PM‬‬

‫ﺑ ﺮای ﻣ ﺜ ﺎل‪ ،‬ﺟ ﺎﻣ ﻌ ﻪ اول را داﻧ ﺸ ﺠ ﻮﯾ ﺎن دﺧ ﺘ ﺮ و ﺟ ﺎﻣ ﻌ ﻪ دوم را داﻧ ﺸ ﺠ ﻮﯾ ﺎن ﭘ ﺴ ﺮ در ﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ و ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬


‫ﻣﺸﺨﺼﻪ ﻣﻮرد ﺑﺮرﺳﯽ‪ ،‬رﺿﺎﯾﺖ ﯾﺎ ﻋﺪم رﺿﺎﯾﺖ اﯾﺸﺎن از ﺗﺪرﯾﺲ ﻣﺠﺎزی ﺑﺎﺷﺪ‪.‬‬

‫‪٨۵‬‬
‫ﺑﺮای ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﺑﺮﻧﻮﻟﯽ ﺑﺎﯾﺪ ﺑﻪ ﺑﺮرﺳﯽ ﭘﺎراﻣﺘﺮھﺎی دو ﺟﺎﻣﻌﻪ )ﯾﻌﻨﯽ ﻣﻘﺎﯾﺴﻪ ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ در دو‬
‫ﺟﺎﻣﻌﻪ‪ PN ،‬و ‪ (PM‬ﭘﺮداﺧﺖ‪ .‬ﭘﺎراﻣﺘﺮ ‪ θ = PN − PM‬را ﺑﺪﯾﻦ ﻣﻨﻈﻮر ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪.‬‬

‫ﺑﺮآورد ﻧﻘﻄﻪ ای ‪θ = PN − PM‬‬

‫دو ﺟﺎﻣﻌﻪ ﺑﺮﻧﻮﻟﯽ ﻣﺴﺘﻘﻞ ﺑﻪ ﺻﻮرت زﯾﺮ دارﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ Be(PN‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ Be(PM‬‬

‫ﺑﺮای ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮﯾﮏ از ﺟﻮاﻣﻊ ﺑﺎﻻ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ Be(PN‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ Be(PM‬‬

‫= ‪Pm‬‬ ‫‪t۲‬‬
‫‪m‬‬
‫= ‪ Pn‬و ﺑﺮآوردﮔﺮ ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ‪،PM‬‬ ‫‪t۱‬‬
‫‪n‬‬
‫ﻣﯽ داﻧﯿﻢ ﮐﻪ ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﻧﻘﻄﻪ ای ﺑﺮای ‪،PN‬‬
‫ﺑﻮده ﺑﻪ ﻃﻮری ﮐﻪ ‪ t۱‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ در ﻧﻤﻮﻧﻪ از ﺟﺎﻣﻌﻪ اول و ‪ t۲‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ در ﻧﻤﻮﻧﻪ ﺟﺎﻣﻌﻪ دوم اﺳﺖ‪ .‬از‬
‫اﯾﻨﺮو ﻣﯽ ﺗﻮان ﺑﺮآوردﮔﺮ ‪ Pn − Pm‬را ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ PN − PM‬در ﻧﻈﺮ ﮔﺮﻓﺖ‪ .‬دارﯾﻢ‪:‬‬

‫‪E(Pn − Pm ) = E(Pn ) − E(Pm ) = PN − PM‬‬

‫ﭘﺲ ﺑﺮآوردﮔﺮ ‪ Pn − Pm‬ﯾﮏ ﺑﺮآوردﮔﺮ ﻧﺎارﯾﺐ ﺑﺮای ‪ PN − PM‬اﺳﺖ‪.‬‬


‫) ‪PN (۱ − PN ) PM (۱ − PM‬‬
‫= ) ‪Var(Pn − Pm ) = Var(Pn ) + Var(Pm‬‬ ‫‪+‬‬ ‫‪.‬‬
‫‪n‬‬ ‫‪m‬‬

‫‪ ٣.۵‬ﺑﺮآورد ﻓﺎﺻﻠﻪ ای‬


‫ھﻤﺎﻧﻄﻮر ﮐﻪ ﮔﻔﺘﯿﻢ‪ ،‬در ﻣﺴﺎﻟﻪ ﺑﺮآوردﯾﺎﺑﯽ ﺑﻪ دﻧﺒﺎل ﺑﺮآورد ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ ﺑﺎ اﺳﺘﻔﺎده از ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ھﺴﺘﯿﻢ‪.‬‬
‫در روش ﺑﺮآورد ﻧﻘﻄﻪ ای‪ ،‬ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ ﺗﻮﺳﻂ ﯾﮏ ﺑﺮآوردﮔﺮ‪ ،‬ﺑﺮآورد ﺷﺪه و ﻣﻘﺪار آن ﺑﺎ اﺳﺘﻔﺎده از ﻣﻘﺪار‬
‫ﺑﺮآوردﮔﺮ ﺑﻪ ازای ﻧﻤﻮﻧﻪ ﻣﺸﺎھﺪه ﺷﺪه‪ ،‬ﺗﺨﻤﯿﻦ زده ﻣﯽ ﺷﻮد‪ .‬اﻣﺎ در ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ﺑﻪ ﺟﺎی ﺗﻘﺮﯾﺐ ﭘﺎراﻣﺘﺮ ﺑﺎ‬
‫ﯾﮏ ﻋﺪد‪ ،‬از ﯾﮏ ﻣﺤﺪوده ﯾﺎ ﻓﺎﺻﻠﻪ اﺳﺘﻔﺎده ﻣﯽ ﮐﻨﯿﻢ ﮐﻪ ﺑﺎ اﺣﺘﻤﺎل ﺑﺴﯿﺎر ﺑﺎﻻ ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ را درﺑﺮﻣﯽ ﮔﯿﺮد‪.‬‬

‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .٨-۵‬ﻓ ﺎﺻ ﻠ ﻪ ) ‪ (L, U‬ﺑ ﻪ ﻃ ﻮری ﮐ ﻪ ‪ L < U‬و ‪ L‬ﯾ ﺎ ‪ U‬ﻣ ﺘ ﻐ ﯿ ﺮھ ﺎی ﺗ ﺼ ﺎدﻓ ﯽ ھ ﺴ ﺘ ﻨ ﺪ را ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ‬


‫ﺗﺼﺎدﻓﯽ ﻣﯽ ﻧﺎﻣﻨﺪ‪.‬‬

‫‪٨۶‬‬
‫ﺑ ﺮای ﻣ ﺜ ﺎل‪ ،‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ )‪ .X ∼ N (۰, ۴‬در اﯾ ﻦ ﺻ ﻮرت )‪ (۲X − ۱, ۲X‬ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ اﺳ ﺖ‪.‬‬
‫ھﻤﭽﻨﯿﻦ اﮔﺮ ﯾﮏ ﻧﻤﻮﻧﻪ ‪ n‬ﺗﺎﯾﯽ از ﻣﺘﻐﯿﺮ ﺗﺼﺎﻓﯽ ‪ X‬را ﺑﻪ ﺻﻮرت ‪ X۱ , X۲ , . . . , Xn‬درﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ‪(X, ∞) ،‬‬
‫ﻧﯿﺰ ﯾﮏ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ اﺳﺖ‪.‬‬

‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .٩-۵‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ از ﺗ ﻮزﯾ ﻌ ﯽ ﺑ ﺎ ﭘ ﺎراﻣ ﺘ ﺮ ‪ θ‬ﺑ ﻮده و ) ‪ (L, U‬ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ‬
‫ﺑﺎﺷﺪ‪ .‬در اﯾﻦ ﺻﻮرت اﮔﺮ‬
‫‪P(L < θ < U ) = ۱ − α‬‬

‫و ھﻤﭽﻨﯿﻦ ﻣﻘﺪار ‪ α‬ﺑﻪ ‪ θ‬واﺑﺴﺘﻪ ﻧﺒﺎﺷﺪ آن ﮔﺎه ) ‪ (L, U‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺎ ﺿﺮﯾﺐ اﻃﻤﯿﻨﺎن )‪ (۱ − α‬ﺑﺮای ‪θ‬‬
‫اﺳﺖ ﮐﻪ آن را ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ θ‬ﻧﯿﺰ ﻣﯽ ﻧﺎﻣﻨﺪ‪.‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ﭘﺎراﻣﺘﺮ ﺟﺎﻣﻌﻪ‪ ،‬ﻣﻘﺪاری ﻧﺎﻣﻌﻠﻮم و ﺛﺎﺑﺖ اﺳﺖ و از اﯾﻨﺮو ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪۱۰۰(۱ − α‬‬
‫درﺻﺪ ﺑﺮای ‪ θ‬ﺑﻪ اﯾﻦ ﻣﻌﻨﯽ اﺳﺖ ﮐﻪ اﮔﺮ ‪ ۱۰۰‬ﺑﺎر ﻧﻤﻮﻧﻪ ﮔﯿﺮی اﻧﺠﺎم ﺷﻮد و ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ) ‪ (L, U‬را ﺑﻪ‬
‫ازای ﻧﻤﻮﻧﻪ ھﺎ ﺑﺪﺳﺖ آورﯾﻢ‪ ،‬ﻣﻄﻤﺌﻦ ھﺴﺘﯿﻢ ﮐﻪ ﺗﻌﺪاد )‪ ۱۰۰(۱ − α‬از اﯾﻦ ﻓﻮاﺻﻞ‪ ،‬ﺷﺎﻣﻞ ﻣﻘﺪار واﻗﻌﯽ ‪θ‬‬
‫اﺳﺖ‪.‬‬
‫ﺑﺮای ﺑﺪﺳﺖ آوردن ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ﭘﺎراﻣﺘﺮ ﻣﺠﻬﻮل ‪ ،θ‬ﻻزم اﺳﺖ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ‬
‫) ‪ (L, U‬را ﻃﻮری ﺑﺪﺳﺖ آورﯾﻢ ﮐﻪ‬
‫‪P(L < θ < U ) = ۱ − α‬‬

‫ﺗ ﻌ ﺮﯾ ﻒ ‪ .١٠-۵‬ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر‪ ،‬ﺗ ﺎﺑ ﻌ ﯽ از ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ و ﭘ ﺎراﻣ ﺘ ﺮھ ﺎی ﺟ ﺎﻣ ﻌ ﻪ اﺳ ﺖ ﮐ ﻪ ﺗ ﻮزﯾ ﻊ آن ﺑ ﻪ ﭘ ﺎراﻣ ﺘ ﺮ‬


‫ﺟﺎﻣﻌﻪ واﺑﺴﺘﻪ ﻧﺒﺎﺷﺪ‪.‬‬

‫ﺗﻮﺟﻪ ﮐﻨﯿﺪ ﮐﻪ ‪ α‬ﻣﻌﻤﻮﻻ‪ ‬ﻃﻮری اﻧﺘﺨﺎب ﻣﯽ ﺷﻮد ﮐﻪ ﺿﺮﯾﺐ اﻃﻤﯿﻨﺎن ‪ ۱ − α‬ﺑﺰرگ و ﻧﺰدﯾﮏ ﺑﻪ ﯾﮏ ﺑﺎﺷﺪ‪.‬‬
‫ﺑ ﺮای ﻣ ﺜ ﺎل ‪ ۱ − α = ۰٫ ۹۵‬و ﯾ ﺎ ‪ ۱ − α = ۰٫ ۹۹‬ﺿ ﺮاﯾ ﺐ اﻃ ﻤ ﯿ ﻨ ﺎﻧ ﯽ ھ ﺴ ﺘ ﻨ ﺪ ﮐ ﻪ اﻏ ﻠ ﺐ ﻣ ﻮرد اﺳ ﺘ ﻔ ﺎده ﻗ ﺮار‬
‫ﻣﯽ ﮔﯿﺮﻧﺪ‪.‬‬

‫‪٨٧‬‬
‫‪ ١.٣.۵‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪ θ = µ‬وﻗﺘﯽ ‪ σ ۲‬ﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X۱ , X۲ , . . . , Xn‬ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ از ﺟ ﺎﻣ ﻌ ﻪ ای ﺑ ﺎ ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل‪ ،‬ﻣ ﯿ ﺎﻧ ﮕ ﯿ ﻦ ‪ µ‬و وارﯾ ﺎﻧ ﺲ ‪σ ۲‬‬
‫ﺑ ﺎﺷ ﺪ ﺑ ﻪ ﻃ ﻮری ﮐ ﻪ ‪ µ‬ﻧ ﺎﻣ ﻌ ﻠ ﻮم و ‪ σ ۲‬ﻣ ﻌ ﻠ ﻮم ﺑ ﺎﺷ ﺪ‪ .‬ﻣ ﯽ ﺧ ﻮاھ ﯿ ﻢ ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪µ‬‬
‫ﺑﺪﺳﺖ آورﯾﻢ‪ .‬ﭘﺲ ﺑﺎﯾﺪ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬را ﻃﻮری ﺗﻌﯿﯿﻦ ﮐﻨﯿﻢ ﮐﻪ‬

‫‪P(L < µ < U ) = ۱ − α‬‬

‫ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﺑﺨﺶ ‪ ،١.۵‬ﻣﯽ داﻧﯿﻢ ﮐﻪ ‪ X‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ‪ µ‬اﺳﺖ و ھﻤﭽﻨﯿﻦ ﻃﺒﻖ وﯾﮋﮔﯽ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل‪،‬‬
‫دارﯾﻢ‪:‬‬
‫∑‪۱‬‬
‫‪n‬‬
‫‪σ۲‬‬
‫=‪X‬‬ ‫‪Xi ∼ N (µ,‬‬ ‫)‬
‫‪n‬‬ ‫‪n‬‬
‫‪i=۱‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪X −µ‬‬
‫=‪Z‬‬ ‫)‪∼ N (۰, ۱‬‬
‫‪√σ‬‬
‫‪n‬‬

‫= ‪ Z‬ﯾﮏ ﺗﺎﺑﻊ ﻣﺤﻮر اﺳﺖ‪ .‬ﺣﺎل ﺑﺎﯾﺪ ﻣﻘﺎدﯾﺮ ‪ a‬و ‪ b‬را ﻃﻮری ﺗﻌﯿﯿﻦ ﮐﻨﯿﻢ ﮐﻪ ‪.P(a < Z < b) = ۱ − α‬‬ ‫‪X−µ‬‬
‫‪√σ‬‬
‫و‬
‫‪n‬‬

‫اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و ‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫در واﻗﻊ‪،‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(Z > b‬‬ ‫‪=⇒ P(Z ≤ b) = ۱ −‬‬ ‫‪=⇒ b = z۱− α۲‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(Z < a‬‬ ‫‪=⇒ a = −b = −z۱− α۲‬‬
‫‪۲‬‬

‫‪٨٨‬‬
‫ﺑﺎ ﺟﺎﯾﮕﺬاری در ‪ P(a < Z < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫‪X −µ‬‬
‫< ‪P(−z۱− α۲‬‬ ‫‪< z۱− α۲ ) = ۱ − α‬‬
‫‪√σ‬‬
‫‪n‬‬
‫‪−σ‬‬ ‫‪σ‬‬
‫‪P( √ z۱− α۲ < X − µ < √ z۱− α۲ ) = ۱ − α‬‬
‫‪n‬‬ ‫‪n‬‬
‫‪σ‬‬ ‫‪σ‬‬
‫‪P(X − √ z۱− α۲ < µ < X + √ z۱− α۲ ) = ۱ − α‬‬
‫‪n‬‬ ‫‪n‬‬
‫|‬ ‫‪{z‬‬ ‫}‬ ‫|‬ ‫‪{z‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬

‫واﺿ ﺢ اﺳ ﺖ ﮐ ﻪ ‪ L‬و ‪ U‬ﺑ ﺪﺳ ﺖ آﻣ ﺪه در راﺑ ﻄ ﻪ ﺑ ﺎﻻ‪ ،‬ھ ﺮ دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ھ ﺴ ﺘ ﻨ ﺪ و‬


‫‪ ،(X −‬ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪ µ‬اﺳ ﺖ‬ ‫‪√σ z۱− α , X‬‬
‫‪n‬‬ ‫‪۲‬‬
‫‪+‬‬ ‫) ‪√σ z۱− α‬‬
‫‪n‬‬ ‫‪۲‬‬
‫ﺑ ﻨ ﺎﺑ ﺮاﯾ ﻦ‬
‫وﻗﺘﯽ ‪ σ ۲‬ﻣﻌﻠﻮم ﺑﺎﺷﺪ‪.‬‬

‫ﻣ ﺜ ﺎل ‪ .١١-۵‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ )‪ .X ∼ N (µ, ۴‬اﮔ ﺮ از اﯾ ﻦ ﺟ ﺎﻣ ﻌ ﻪ ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ ‪ ۹‬ﺗ ﺎﯾ ﯽ ﮔ ﺮﻓ ﺘ ﻪ ﺷ ﻮد و ﻃ ﺒ ﻖ‬


‫‪∑۹‬‬
‫= ‪ ،x‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩۵‬درﺻﺪی ﺑﺮای ‪ µ‬ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬ ‫‪۱‬‬
‫‪۹‬‬ ‫‪i=۱‬‬ ‫ﻣﺤﺎﺳﺒﺎت ‪xi = ۳‬‬
‫ﺣﻞ‪ :‬ﻣﯽ داﻧﯿﻢ ﮐﻪ ھﺮﮔﺎه ‪ σ ۲‬ﻣﻌﻠﻮم ﺑﺎﺷﺪ‪ (X − √σn z۱− α۲ , X + √σn z۱− α۲ ) ،‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪۱۰۰(۱ − α‬‬
‫درﺻﺪ ﺑﺮای ‪ µ‬اﺳﺖ‪ .‬در اﯾﻨﺠﺎ دارﯾﻢ‪:‬‬

‫‪x = ۳,‬‬ ‫‪σ ۲ = ۴,‬‬ ‫‪n=۹‬‬


‫‪α‬‬
‫‪۱ − α = ۰٫ ۹۵ =⇒ α = ۰٫ ۰۵ =⇒ ۱ −‬‬ ‫‪= ۰٫ ۹۷۵ =⇒ z۱− α۲ = z۰٫۹۷۵ = ۱٫ ۹۶‬‬
‫‪۲‬‬
‫و ﺑﻨﺎﺑﺮاﯾﻦ ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫‪σ‬‬ ‫‪۲‬‬
‫‪L = x − √ z۱− α۲ = ۳ − × ۱٫ ۹۶ = ۱٫ ۹۶۴‬‬
‫‪n‬‬ ‫‪۳‬‬
‫‪σ‬‬ ‫‪۲‬‬
‫‪U = x + √ z۱− α۲ = ۳ + × ۱٫ ۹۶ = ۳٫ ۳۰۶‬‬
‫‪n‬‬ ‫‪۳‬‬
‫ﭘ ﺲ )‪ (۱٫ ۹۶۴, ۳٫ ۳۰۶‬ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن ‪ ٩۵‬درﺻ ﺪ ﺑ ﺮای ‪ µ‬اﺳ ﺖ ﺑ ﺪﯾ ﻦ ﻣ ﻌ ﻨ ﺎ ﮐ ﻪ اﮔ ﺮ ‪ ٩٩‬ﺑ ﺎر دﯾ ﮕ ﺮ ﻧ ﻤ ﻮﻧ ﻪ‬
‫ﮔﺮﻓﺘﻪ ﺷﻮد و ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺎﻻ ﻣﺤﺎﺳﺒﻪ ﺷﻮد‪٩۵ ،‬ﺗﺎ از اﯾﻦ ﻓﻮاﺻﻞ ﻣﻘﺪار واﻗﻌﯽ ‪ µ‬را درﺑﺮﻣﯽ ﮔﯿﺮﻧﺪ‪.‬‬

‫‪٨٩‬‬
‫‪ ٢.٣.۵‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪ θ = µ‬وﻗﺘﯽ ‪ σ ۲‬ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ‪ X۱ , X۲ , . . . , Xn‬ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ از ﺟ ﺎﻣ ﻌ ﻪ ای ﺑ ﺎ ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل ﺑ ﺎ ﻣ ﯿ ﺎﻧ ﮕ ﯿ ﻦ ‪ µ‬و وارﯾ ﺎﻧ ﺲ ‪σ ۲‬‬
‫ﺑﺎﺷﺪ ﺑﻪ ﻃﻮری ﮐﻪ ‪ µ‬و ‪ σ ۲‬ﭘﺎراﻣﺘﺮھﺎی ﻣﺠﻬﻮل ھﺴﺘﻨﺪ‪ .‬ﻣﯽ ﺧﻮاھﯿﻢ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای‬
‫‪ µ‬ﺑﺪﺳﺖ آورﯾﻢ‪ .‬ﭘﺲ ﻻزم اﺳﺖ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬ﻃﻮری ﺗﻌﯿﯿﻦ ﺷﻮد ﮐﻪ‬

‫‪P(L < µ < U ) = ۱ − α.‬‬

‫‪∑n‬‬ ‫‪∑n‬‬
‫‪ Sn−‬ﺑ ﻪ ﺗ ﺮﺗ ﯿ ﺐ ﺑ ﺮآوردﮔ ﺮ ﻣ ﻄ ﻠ ﻮب ﺑ ﺮای‬
‫‪۲‬‬
‫= ‪۱‬‬
‫‪۱‬‬
‫‪n−۱‬‬ ‫‪i=۱ (Xi‬‬ ‫= ‪ X‬و ‪− X)۲‬‬ ‫‪۱‬‬
‫‪n‬‬ ‫‪i=۱‬‬ ‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ ‪Xi‬‬
‫ﭘﺎراﻣﺘﺮھﺎی ‪ µ‬و ‪ σ ۲‬ھﺴﺘﻨﺪ‪ ،‬ﻣﯽ ﺧﻮاھﯿﻢ ﺗﺎﺑﻊ ﻣﺤﻮر را ﺑﺎ اﺳﺘﻔﺎده از اﯾﻦ دو ﺑﺮآوردﮔﺮ ﺑﺴﺎزﯾﻢ‪.‬‬
‫= ‪ .Z‬ﺣ ﺎل اﮔ ﺮ در راﺑ ﻄ ﻪ ‪ Z‬ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ‬ ‫‪X−µ‬‬
‫‪√σ‬‬
‫ﻃ ﺒ ﻖ وﯾ ﮋﮔ ﯽ ﺗ ﻮزﯾ ﻊ ھ ﺎی اﺣ ﺘ ﻤ ﺎل‪ ،‬ﻣ ﯽ داﻧ ﯿ ﻢ ﮐ ﻪ )‪∼ N (۰, ۱‬‬
‫‪n‬‬

‫‪ Sn−‬ﺑﺠﺎی ‪ σ ۲‬اﺳﺘﻔﺎده ﮐﻨﯿﻢ‪ ،‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ دﯾﮕﺮی ﺑﻪ ﺻﻮرت‬


‫‪۲‬‬
‫ﻧﺎﻣﻌﻠﻮم ﺑﻮدن ‪ σ‬از ﺑﺮآودﮔﺮ ﻣﻄﻠﻮب آن ﯾﻌﻨﯽ ‪۱‬‬
‫‪۲‬‬

‫زﯾﺮ دارﯾﻢ‪:‬‬
‫‪X −µ‬‬
‫= ‪T‬‬ ‫‪Sn−۱‬‬
‫√‬
‫‪n‬‬

‫ﮐﻪ دارای ﺗﻮزﯾﻊ ﺗﯽ ﺑﺎ ‪ n − ۱‬درﺟﻪ آزادی اﺳﺖ و آن را ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪:‬‬

‫‪X −µ‬‬
‫= ‪T‬‬ ‫‪Sn−۱‬‬
‫)‪∼ t(n − ۱‬‬ ‫)‪(١-۵‬‬
‫√‬
‫‪n‬‬

‫ﺷﮑﻞ ﺗﺎﺑﻊ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺗﯽ‪ ،‬ﻣﺸﺎﺑﻪ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﺳﺖ و ﻣﻘﺎدﯾﺮ آن را ﻣﯽ ﺗﻮان ﺑﺎ اﺳﺘﻔﺎده از ﺟﺪول ‪V‬‬
‫ﺑﺮای ﻣﻘﺎدرﯾﺮ ﻣﺨﺘﻠﻒ ‪ n‬و ‪ α‬ﺑﺪﺳﺖ آورد‪ .‬ﻻزم ﺑﻪ ذﮐﺮ اﺳﺖ ﮐﻪ ﺗﻮزﯾﻊ ﺗﯽ ﻣﺸﺎﺑﻪ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﻣﺘﻘﺎرن اﺳﺖ‪.‬‬
‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ )‪ ،(١-۵‬ﺗ ﺎﺑ ﻊ ‪ T‬ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر اﺳ ﺖ‪ .‬ﺣ ﺎل ﺑ ﺎﯾ ﺪ ﻣ ﻘ ﺎدﯾ ﺮ ‪ a‬و ‪ b‬را ﻃ ﻮری ﺗ ﻌ ﯿ ﯿ ﻦ ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ‬
‫‪.P(a < T < b) = ۱ − α‬‬
‫اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﺗﻮزﯾﻊ ﺗﯽ ﺑﺎ ‪ n − ۱‬درﺟﻪ آزادی‪ ،‬در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و‬
‫‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬

‫‪٩٠‬‬
‫در واﻗﻊ‪،‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(T > b‬‬ ‫‪=⇒ P(T ≤ b) = ۱ −‬‬ ‫)‪=⇒ b = t۱− α۲ (n − ۱‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(T < a‬‬ ‫)‪=⇒ a = −b = −t۱− α۲ (n − ۱‬‬
‫‪۲‬‬
‫ﺑﺎ ﺟﺎﯾﮕﺬاری در ‪ P(a < T < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫‪X −µ‬‬
‫< )‪P(−t۱− α۲ (n − ۱‬‬ ‫‪Sn−۱‬‬
‫‪< t۱− α۲ (n − ۱)) = ۱ − α‬‬
‫√‬
‫‪n‬‬
‫‪−Sn−۱‬‬ ‫‪Sn−۱‬‬
‫‪P( √ t۱− α۲ (n − ۱) < X − µ < √ t۱− α۲ (n − ۱)) = ۱ − α‬‬
‫‪n‬‬ ‫‪n‬‬
‫‪Sn−۱‬‬ ‫‪Sn−۱‬‬
‫‪P(X − √ t۱− α۲ (n − ۱) < µ < X + √ t۱− α۲ (n − ۱)) = ۱ − α‬‬
‫‪n‬‬ ‫‪n‬‬
‫|‬ ‫‪{z‬‬ ‫}‬ ‫|‬ ‫‪{z‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬

‫واﺿ ﺢ اﺳ ﺖ ﮐ ﻪ ‪ L‬و ‪ U‬ﺑ ﺪﺳ ﺖ آﻣ ﺪه در راﺑ ﻄ ﻪ ﺑ ﺎﻻ‪ ،‬ھ ﺮ دو ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ ھ ﺴ ﺘ ﻨ ﺪ و ﺑ ﻨ ﺎﺑ ﺮاﯾ ﻦ‬


‫‪ ،(X −‬ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪ µ‬اﺳ ﺖ‬ ‫‪Sn−۱‬‬
‫‪√ t۱− α (n‬‬
‫‪n‬‬ ‫‪۲‬‬
‫‪− ۱), X +‬‬
‫‪Sn−۱‬‬
‫‪√ t۱− α (n‬‬
‫‪n‬‬ ‫‪۲‬‬
‫))‪− ۱‬‬
‫وﻗﺘﯽ ‪ σ ۲‬ﻧﺎﻣﻌﻠﻮم ﺑﺎﺷﺪ‪.‬‬

‫ﻣﺜﺎل ‪ .١٢-۵‬ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ‪ ١۵‬ﺗﺎﯾﯽ از ﯾﮏ ﺟﻤﻌﯿﺖ ﺑﺎ ﺗﻮزﯾﻊ ﻧﺮﻣﺎل اﻧﺘﺨﺎب ﺷﺪه و ﻧﺘﺎﯾﺞ زﯾﺮ ﺑﺪﺳﺖ آﻣﺪه‬
‫اﺳﺖ‪ .‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٩‬درﺻﺪ ﺑﺮای ‪ µ‬ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬

‫‪۱۲٫ ۷, ۶٫ ۶, ۵٫ ۶, ۱۴٫ ۳, ۱۱٫ ۴, ۴٫ ۳, ۷٫ ۲, ۶٫ ۱,‬‬


‫‪۱۴, ۷٫ ۱, ۱۲٫ ۸, ۱۰, ۱۱٫ ۲, ۱۳٫ ۸, ۱۰٫ ۸‬‬

‫ﺣﻞ‪ :‬ﻃﺒﻖ داده ھﺎی ﻣﺴﺎﻟﻪ دارﯾﻢ‪:‬‬

‫∑ ‪۱‬‬
‫‪۱۵‬‬
‫‪۱۴۷٫ ۹‬‬
‫=‪x‬‬ ‫= ‪xi‬‬ ‫‪= ۹٫ ۸۶‬‬
‫‪۱۵ i=۱‬‬ ‫‪۱۵‬‬
‫‪۱‬‬ ‫∑‬
‫‪n‬‬
‫∑ ‪۱‬‬
‫‪۱۵‬‬
‫‪۲‬‬
‫‪Sn−‬‬‫= ‪۱‬‬ ‫= ‪(xi − x)۲‬‬ ‫‪(x − ۹٫ ۸۶)۲ = ۱۱٫ ۶۲‬‬
‫‪n−۱‬‬
‫‪i=۱‬‬
‫‪۱۴ i=۱ i‬‬
‫‪α‬‬ ‫‪α‬‬
‫⇒= ‪۱ − α = ۰٫ ۹۹ =⇒ α = ۰٫ ۰۱‬‬ ‫‪= ۰٫ ۰۰۵ =⇒ ۱ −‬‬ ‫‪= ۰٫ ۹۹۵‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪=⇒ t۱− α۲ (n − ۱) = t۰٫۹۹۵ (۱۴) = ۲٫ ۹۸‬‬

‫‪٩١‬‬
‫ﻣﯽ داﻧﯿﻢ ﮐﻪ ھﺮﮔﺎه ‪ σ ۲‬ﻧﺎﻣﻌﻠﻮم ﺑﺎﺷﺪ‪ ،(X − S√n−n۱ t۱− α۲ (n − ۱), X + S√n−n۱ t۱− α۲ (n − ۱)) ،‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن‬
‫)‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ µ‬اﺳﺖ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ دارﯾﻢ‬

‫‪Sn−۱‬‬ ‫‪۳٫ ۴۱‬‬


‫‪L = x − √ t۱− α۲ (n − ۱) = ۹٫ ۸۶ −‬‬ ‫‪× ۲٫ ۹۸ = ۷٫ ۲۳‬‬
‫‪n‬‬ ‫‪۳٫ ۸۷‬‬
‫‪Sn−۱‬‬ ‫‪۳٫ ۴۱‬‬
‫‪U = x + √ t۱− α۲ (n − ۱) = ۹٫ ۸۶ +‬‬ ‫‪× ۲٫ ۹۸ = ۱۲٫ ۴۹‬‬
‫‪n‬‬ ‫‪۳٫ ۸۷‬‬
‫و )‪ (۷٫ ۲۳, ۱۲٫ ۴۹‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٩‬درﺻﺪ ﺑﺮای ‪ µ‬اﺳﺖ‪.‬‬

‫‪ ٣.٣.۵‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ‪.θ = σ ۲‬‬


‫ﻓﺮض ﮐﻨﯿﺪ ‪ X۱ , X۲ , . . . , Xn‬ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎ ﭘﺎراﻣﺘﺮ ‪ µ‬و ‪ σ ۲‬ﺑﺎﺷﺪ ﺑﻪ ﻃﻮری ﮐﻪ ‪ µ‬و ‪σ ۲‬‬
‫ھ ﺮ دو ﻧ ﺎﻣ ﻌ ﻠ ﻮم ﺑ ﺎﺷ ﻨ ﺪ‪ .‬ﻣ ﯽ ﺧ ﻮاھ ﯿ ﻢ ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪ σ ۲‬ﺑ ﺪﺳ ﺖ آورﯾ ﻢ‪ .‬درواﻗ ﻊ‪ ،‬ﺑ ﻪ‬
‫دﻧﺒﺎل ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬ھﺴﺘﯿﻢ ﺑﻪ ﻃﻮری ﮐﻪ‬

‫‪P(L < σ ۲ < U ) = ۱ − α‬‬

‫‪∑n‬‬
‫‪ Sn−‬ﺑ ﺮآوردﮔ ﺮ ﻧ ﻘ ﻄ ﻪ ای ﻣ ﻄ ﻠ ﻮب ﺑ ﺮای ﭘ ﺎراﻣ ﺘ ﺮ ‪ σ ۲‬اﺳ ﺖ‪ ،‬ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر را ﺑ ﺎ‬
‫‪۲‬‬
‫= ‪۱‬‬ ‫‪n−۱‬‬
‫‪۱‬‬
‫‪i=۱ (xi‬‬ ‫ﭼ ﻮن ‪− x)۲‬‬
‫‪ Sn−‬ﻣﯽ ﺳﺎزﯾﻢ‪.‬‬
‫‪۲‬‬
‫اﺳﺘﻔﺎده از ‪۱‬‬

‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ ﺧ ﻮاص ﺗ ﻮزﯾ ﻊ ﻧ ﺮﻣ ﺎل‪ ،‬اﮔ ﺮ ) ‪ X ∼ N (µ, σ ۲‬و ‪ X۱ , X۲ , . . . , Xn‬ﯾ ﮏ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ از اﯾ ﻦ‬


‫‪۲‬‬
‫‪(n−۱)Sn−‬‬
‫= ‪ Y‬ﯾ ﮏ ﻣ ﺘ ﻐ ﯿ ﺮ ﺗ ﺼ ﺎدﻓ ﯽ از ﺗ ﻮزﯾ ﻊ ﻣ ﺮﺑ ﻊ‪-‬ﮐ ﺎی ﺑ ﺎ ‪ n − ۱‬درﺟ ﻪ آزادی اﺳ ﺖ ﮐ ﻪ‬ ‫‪σ۲‬‬
‫‪۱‬‬
‫ﺟ ﺎﻣ ﻌ ﻪ ﺑ ﺎﺷ ﺪ آن ﮔ ﺎه‬
‫آن را ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﻤﺎﯾﺶ ﻣﯽ دھﻨﺪ‬

‫‪(n − ۱)Sn−‬‬
‫‪۲‬‬
‫‪۱‬‬
‫= ‪Y‬‬ ‫‪∼ χ۲ (n − ۱).‬‬
‫‪σ۲‬‬

‫ﭘ ﺲ ‪ Y‬ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر اﺳ ﺖ‪ .‬ﺣ ﺎل ﺑ ﺎﯾ ﺪ ﻣ ﻘ ﺎدﯾ ﺮ ‪ a‬و ‪ b‬را ﻃ ﻮری ﺗ ﻌ ﯿ ﯿ ﻦ ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ ‪.P(a < Y < b) = ۱ − α‬‬
‫اﮔﺮ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﭼﮕﺎﻟﯽ اﺣﺘﻤﺎل ﻣﺮﺑﻊ‪-‬ﮐﺎی در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و ‪ b‬را ﺑﺮاﺑﺮ درﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ دارﯾﻢ‪:‬‬
‫ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ دارﯾﻢ‪:‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(Y > b‬‬ ‫‪=⇒ P(Y ≤ b) = ۱ −‬‬ ‫)‪=⇒ b = χ۲۱− α (n − ۱‬‬
‫‪۲‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(Y < a‬‬ ‫)‪=⇒ a = χ۲α (n − ۱‬‬
‫‪۲‬‬ ‫‪۲‬‬

‫ﻣ ﻘ ﺎدﯾ ﺮ ﺗ ﻮزﯾ ﻊ اﺣ ﺘ ﻤ ﺎل ﻣ ﺮﺑ ﻊ ﮐ ﺎی ﺑ ﺮای ھ ﺮ درﺟ ﻪ آزادی و ﻣ ﻘ ﺎدﯾ ﺮ ‪ α‬ﻣ ﺘ ﻔ ﺎوت‪ ،‬در ﺟ ﺪول ‪ IV‬وﺟ ﻮد دارد‪ .‬ﺑ ﺎ‬

‫‪٩٢‬‬
‫ﺟﺎﯾﮕﺬاری در ‪ P(a < Y < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬
‫(‬ ‫)‬
‫‪(n − ۱)Sn−‬‬
‫‪۲‬‬
‫‪۱‬‬
‫< )‪P χ α (n − ۱‬‬
‫‪۲‬‬
‫‪< χ۱− α (n − ۱) = ۱ − α‬‬
‫‪۲‬‬
‫‪۲‬‬ ‫‪σ۲‬‬ ‫‪۲‬‬
‫‪‬‬ ‫‪‬‬
‫‪ (n − ۱)S ۲‬‬ ‫‪(n − ۱)Sn−‬‬ ‫‪۲ ‬‬
‫‪‬‬ ‫‪n−۱‬‬ ‫‪۱‬‬
‫‪=⇒P  ۲‬‬ ‫‪۲‬‬
‫‪<σ < ۲‬‬ ‫‪=۱−α‬‬
‫)‪ χ۱− α (n − ۱‬‬ ‫‪χ α (n − ۱) ‬‬
‫|‬ ‫‪۲‬‬
‫‪{z‬‬ ‫}‬ ‫|‬ ‫‪۲‬‬
‫‪{z‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬
‫(‬ ‫)‬
‫‪۲‬‬
‫‪(n−۱)Sn−‬‬ ‫‪۲‬‬
‫‪(n−۱)Sn−‬‬
‫ﻓ ﺎﺻ ﻠ ﻪ‬ ‫)‪χ۲α (n−۱‬‬
‫‪۱‬‬
‫‪, χ۲‬‬ ‫‪۱‬‬
‫)‪(n−۱‬‬
‫واﺿ ﺢ اﺳ ﺖ ﮐ ﻪ ) ‪ (L, U‬ﺑ ﺪﺳ ﺖ آﻣ ﺪه ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ اﺳ ﺖ ﭘ ﺲ‬
‫‪۲‬‬ ‫‪۱− α‬‬
‫‪۲‬‬
‫اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ σ ۲‬اﺳﺖ‪.‬‬

‫ﻣﺜﺎل ‪ .١٣-۵‬در ﻣﺜﺎل ‪ ١٢-۵‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٩‬درﺻﺪ ﺑﺮای ‪ σ ۲‬ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫‪ .Sn−‬ھﻤﭽﻨﯿﻦ دارﯾﻢ‪:‬‬
‫‪۲‬‬
‫ﺣﻞ‪ :‬از ﻣﺜﺎل ‪ ١٢-۵‬ﺑﺪﺳﺖ آوردﯾﻢ‪ x = ۹٫ ۸۶ :‬و ‪۱ = ۱۱٫ ۶۲‬‬

‫‪α‬‬
‫⇒= ‪۱ − α = ۰٫ ۹۹ =⇒ α = ۰٫ ۰۱‬‬ ‫‪= ۰٫ ۰۰۵ =⇒ χ۲α (n − ۱) = χ۲۰٫۰۰۵ (۱۴) = ۴٫ ۰۷‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫‪۱−‬‬ ‫‪= ۰٫ ۹۹۵ =⇒ χ۲۱− α (n − ۱) = χ۲۰٫۹۹۵ (۱۴) = ۳۱٫ ۳‬‬
‫‪۲‬‬ ‫‪۲‬‬

‫(‬ ‫)‬
‫‪۲‬‬
‫‪(n−۱)Sn−‬‬ ‫‪۲‬‬
‫‪(n−۱)Sn−‬‬
‫اﺳﺖ‪ .‬ﭘﺲ‬ ‫‪σ۲‬‬ ‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای‬ ‫‪۱‬‬
‫)‪χ۲۱− α (n−۱‬‬
‫‪,‬‬ ‫)‪χ۲α (n−۱‬‬
‫‪۱‬‬
‫ﻣﯽ داﻧﯿﻢ ﮐﻪ‬
‫‪۲‬‬ ‫‪۲‬‬

‫‪(n − ۱)Sn−‬‬‫‪۲‬‬
‫‪۱‬‬ ‫‪۱۴ × ۱۱٫ ۶۲‬‬
‫=‪L‬‬ ‫=‬ ‫‪= ۵٫ ۱۹۷‬‬
‫)‪χ۱− α (n − ۱‬‬
‫‪۲‬‬ ‫‪۳۱٫ ۳‬‬
‫‪۲‬‬

‫‪(n − ۱)Sn−‬‬‫‪۲‬‬
‫‪۱‬‬ ‫‪۱۴ × ۱۱٫ ۶۲‬‬
‫=‪U‬‬ ‫=‬ ‫‪= ۳۹٫ ۹۷‬‬
‫)‪χ α (n − ۱‬‬
‫‪۲‬‬ ‫‪۴٫ ۰۷‬‬
‫‪۲‬‬

‫و )‪ (۵٫ ۱۹۷, ۳۹٫ ۹۷‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٩‬درﺻﺪ ﺑﺮای ‪ σ ۲‬اﺳﺖ‪.‬‬

‫‪٩٣‬‬
‫‪ ۴.٣.۵‬ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ در ﯾﮏ ﺟﺎﻣﻌﻪ‬
‫ﻓﺮض ﮐﻨﯿﺪ ‪ X۱ , X۲ , . . . , Xn‬ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺟﺎﻣﻌﻪ ای ﺑﺎ ﺗﻮزﯾﻊ ﺑﺮﻧﻮﻟﯽ ﺑﺎ ﭘﺎراﻣﺘﺮ ‪ p‬ﺑﺎﺷﺪ‪ .‬ﻣﯽ ﺧﻮاھﯿﻢ‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ p‬ﺑﺪﺳﺖ آورﯾ ﻢ‪ .‬ﭘﺲ ﺑﺎﯾﺪ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬را ﻃﻮری ﺗﻌﯿﯿﻦ‬
‫ﮐﻨ ﯿ ﻢ ﮐ ﻪ‬
‫‪P(L < p < U ) = ۱ − α‬‬

‫ﻃ ﺒ ﻖ ﻣ ﻄ ﺎﻟ ﺐ ﺑ ﺨ ﺶ ‪ ،١.۵‬اﮔ ﺮ ‪ t‬ﺗ ﻌ ﺪاد ﻣ ﻮﻓ ﻘ ﯿ ﺖ ھ ﺎ در ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ و ‪ n‬ﺣ ﺠ ﻢ ﻧ ﻤ ﻮﻧ ﻪ ﺗ ﺼ ﺎدﻓ ﯽ ﺑ ﺎﺷ ﺪ آﻧ ﮕ ﺎه‬


‫= ‪ pn‬ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ p‬اﺳﺖ در واﻗﻊ دارﯾﻢ‪:‬‬ ‫‪t‬‬
‫‪n‬‬
‫‪∑n‬‬
‫‪t‬‬ ‫‪Xi‬‬
‫= = ‪pb = pn‬‬ ‫‪i=۱‬‬
‫‪n‬‬ ‫‪n‬‬
‫ﻣ ﯽ ﺧ ﻮاھ ﯿ ﻢ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر را ﺑ ﺎ اﺳ ﺘ ﻔ ﺎده از ‪ pn‬ﺑ ﺴ ﺎزﯾ ﻢ‪ .‬ﻃ ﺒ ﻖ ﻗ ﻀ ﯿ ﻪ ﺣ ﺪ ﻣ ﺮﮐ ﺰی و )‪ ،(٢-۴‬ﺑ ﺮای ‪ n‬ﺑ ﻪ اﻧ ﺪازه ﮐ ﺎﻓ ﯽ‬
‫‪∑n‬‬
‫= ‪ Sn‬و در ﻧﺘﯿﺠﻪ‬ ‫‪i=۱‬‬ ‫ﺑﺰرگ دارﯾﻢ‪Xi ∼ N (np, npq) :‬‬
‫‪Sn‬‬ ‫‪pq‬‬
‫= ‪pn‬‬ ‫) ‪∼ N (p,‬‬
‫‪n‬‬ ‫‪n‬‬
‫ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ‬
‫‪pn − p‬‬
‫)‪Z = √ pq ∼ N (۰, ۱‬‬
‫‪n‬‬

‫‪ Z = p√n −p‬ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر اﺳ ﺖ‪ .‬ﭘ ﺲ ﻣ ﻘ ﺎدﯾ ﺮ ‪ a‬و ‪ b‬را ﻃ ﻮری ﺑ ﺪﺳ ﺖ ﻣ ﯽ آورﯾ ﻢ ﮐ ﻪ‬


‫ﭘ ﺲ ‪pq‬‬
‫‪n‬‬
‫‪ .P(a < Z < b) = ۱ − α‬ﻣﺸﺎﺑﻪ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ µ‬وﻗﺘﯽ ‪ σ ۲‬ﻣﻌﻠﻮم اﺳﺖ‪ ،‬ﻓﺮض‬
‫ﻣﯽ ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﭼﮕﺎﻟﯽ ﻧﺮﻣﺎل در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و ‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ .‬ﭘﺲ دارﯾﻢ‪:‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(Z > b‬‬ ‫‪=⇒ P(Z ≤ b) = ۱ −‬‬ ‫‪=⇒ b = z۱− α۲‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(Z < a‬‬ ‫‪=⇒ a = −b = −z۱− α۲‬‬
‫‪۲‬‬
‫ﺑﺎ ﺟﺎﯾﮕﺬاری در ‪ P(a < Z < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬
‫‪pn − p‬‬
‫√ < ‪P(−z۱− α۲‬‬ ‫‪< z۱− α۲ ) = ۱ − α‬‬
‫)‪p(۱−p‬‬
‫‪n‬‬

‫اﻣ ﺎ ﭼ ﻮن ﭘ ﺎراﻣ ﺘ ﺮ ﻣ ﺠ ﻬ ﻮل ‪ ،p‬ھ ﻢ در ﺻ ﻮرت و ھ ﻢ در ﻣ ﺨ ﺮج ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر ﻗ ﺮار دارد‪ ،‬ﻣ ﺴ ﺎﻟ ﻪ ﭘ ﯿ ﭽ ﯿ ﺪه ﺑ ﻮده و ﺗ ﻌ ﯿ ﯿ ﻦ‬


‫ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن دﺷ ﻮار اﺳ ﺖ‪ .‬از اﯾ ﻨ ﺮو‪ ،‬ﻣ ﯽ ﺗ ﻮان ﺑ ﺠ ﺎی ﭘ ﺎراﻣ ﺘ ﺮ ‪ p‬در ﻣ ﺨ ﺮج ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر ‪ Z‬ﺑ ﺎﻻ‪ ،‬از ﺑ ﺮآوردﮔ ﺮ‬
‫ﻣﻄﻠﻮب آن ﯾﻌﻨﯽ ‪ pn‬اﺳﺘﻔﺎده ﮐﺮد ﺗﺎ رواﺑﻂ ﺳﺎده ﺷﻮد‪ .‬ﭘﺲ ﺗﻌﺮﯾﻒ ﮐﻨﯿﻢ‪:‬‬
‫‪pn − p‬‬
‫√ = ‪Zn‬‬
‫) ‪pn (۱−pn‬‬
‫‪n‬‬

‫‪٩۴‬‬
‫ﮐ ﻪ ‪ Zn‬ﻧ ﯿ ﺰ دارای ﺗ ﻮزﯾ ﻊ ﺗ ﻘ ﺮﯾ ﺒ ﯽ ﻧ ﺮﻣ ﺎل اﺳ ﺘ ﺎﻧ ﺪارد اﺳ ﺖ و ﻣ ﯽ ﺗ ﻮان از آن ﺑ ﺠ ﺎی ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر ‪ Z‬اﺳ ﺘ ﻔ ﺎده ﮐ ﺮد‪.‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ از ‪ P(a < Zn < b) = ۱ − α‬دارﯾﻢ‪:‬‬
‫‪‬‬ ‫‪‬‬
‫‪pn − p‬‬
‫√ < ‪P −z۱− α۲‬‬ ‫‪< z۱− α۲  = ۱ − α‬‬
‫) ‪pn (۱−pn‬‬
‫‪n‬‬
‫‪‬‬ ‫‪‬‬
‫√‬ ‫√‬
‫‪‬‬ ‫) ‪pn ( ۱ − pn‬‬ ‫‪pn (۱ − pn ) ‬‬
‫‪P‬‬
‫‪pn − z۱− ۲‬‬
‫‪α‬‬ ‫‪< p < pn + z۱− α۲‬‬ ‫‪=۱−α‬‬
‫‪‬‬
‫|‬ ‫‪{z‬‬ ‫‪n‬‬ ‫}‬ ‫|‬ ‫‪{z‬‬ ‫‪n‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬

‫واﺿﺢ اﺳﺖ ﮐﻪ ) ‪ (L, U‬ﺑﺪﺳﺖ آﻣﺪه‪ ،‬ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ اﺳﺖ و ﺑﻨﺎﺑﺮاﯾﻦ‬


‫(‬ ‫√‬ ‫√‬ ‫)‬
‫) ‪pn (۱ − pn‬‬ ‫) ‪pn ( ۱ − pn‬‬
‫‪pn − z۱− α۲‬‬ ‫‪, pn + z۱− α۲‬‬
‫‪n‬‬ ‫‪n‬‬

‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ p‬اﺳﺖ‪.‬‬

‫ﻣ ﺜ ﺎل ‪ .١۴-۵‬در ﺷ ﻬ ﺮی ﮐ ﻪ از ‪ ۵٠٠‬ﺧ ﺎﻧ ﻮار ﺗ ﻨ ﻬ ﺎ ‪ ١۶٠‬ﺧ ﺎﻧ ﻮار دارای ﯾ ﺨ ﭽ ﺎل ھ ﺴ ﺘ ﻨ ﺪ ﻣ ﯽ ﺧ ﻮاھ ﯿ ﻢ ﯾ ﮏ ﻓ ﺎﺻ ﻠ ﻪ‬


‫اﻃﻤﯿﻨﺎن ‪ ٩۵‬درﺻﺪ ﺑﺮای ﻧﺴﺒﺖ ﺧﺎﻧﻮارھﺎﯾﯽ از اﯾﻦ ﺷﻬﺮ ﮐﻪ دارای ﯾﺨﭽﺎل ھﺴﺘﻨﺪ‪ ،‬ﺑﺪﺳﺖ آورﯾﻢ‪.‬‬
‫ﺣ ﻞ‪ :‬ﻣ ﺘ ﻐ ﯿ ﺮ ‪ X‬را ﯾ ﺨ ﭽ ﺎل داﺷ ﺘ ﻦ ﯾ ﺎ ﻧ ﺪاﺷ ﺘ ﻦ ﯾ ﮏ ﺧ ﺎﻧ ﻮار ﺗ ﻌ ﺮﯾ ﻒ ﻣ ﯽ ﮐ ﻨ ﯿ ﻢ‪ .‬ﭘ ﺲ اﮔ ﺮ ‪ p‬ﻧ ﺴ ﺒ ﺖ ﺧ ﺎﻧ ﻮارھ ﺎی‬
‫دارای ﯾﺨﭽﺎل ﺗﻌﺮﯾﻒ ﺷﻮد دارﯾﻢ‪ .X ∼ Be(p) :‬ﻃﺒﻖ اﻃﻼﻋﺎت ﻣﺴﺎﻟﻪ دارﯾﻢ‪:‬‬

‫‪t‬‬ ‫‪۱۶۰‬‬
‫‪n = ۵۰۰,‬‬ ‫= ‪pn‬‬ ‫=‬ ‫‪= ۰٫ ۳۲‬‬
‫‪n‬‬ ‫‪۵۰۰‬‬
‫‪α‬‬
‫‪۱ − α = ۰٫ ۹۵ =⇒ α = ۰٫ ۰۵ =⇒ ۱ −‬‬ ‫‪= ۰٫ ۹۷۵ =⇒ z۱− α۲ = z۰٫۹۷۵ = ۱٫ ۹۶‬‬
‫‪۲‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫√‬ ‫√‬
‫) ‪pn (۱ − pn‬‬ ‫‪۰٫ ۳۲ × ۰٫ ۶۸‬‬
‫‪L = pn − z۱− α۲‬‬ ‫‪= ۰٫ ۳۲ − ۱٫ ۹۶‬‬ ‫‪= ۰٫ ۲۸‬‬
‫√‬ ‫‪n‬‬ ‫√‬ ‫‪۵۰۰‬‬
‫) ‪pn (۱ − pn‬‬ ‫‪۰٫ ۳۲ × ۰٫ ۶۸‬‬
‫‪U = pn + z۱− α۲‬‬ ‫‪= ۰٫ ۳۲ + ۱٫ ۹۶‬‬ ‫‪= ۰٫ ۳۶‬‬
‫‪n‬‬ ‫‪۵۰۰‬‬
‫و )‪ (۰٫ ۲۸, ۰٫ ۳۶‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩۵‬درﺻﺪ ﺑﺮای ‪ p‬اﺳﺖ‪.‬‬

‫‪٩۵‬‬
‫‪ ۴.۵‬ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ﺑﺮای ﭘﺎراﻣﺘﺮھﺎﯾﯽ از دو ﺟﺎﻣﻌﻪ‬
‫ھ ﻤ ﺎﻧ ﻄ ﻮر ﮐ ﻪ در ﺑ ﺨ ﺶ ‪ ٢.۵‬ﻧ ﯿ ﺰ ﻣ ﻄ ﺮح ﺷ ﺪ‪ ،‬ﺑ ﺮای ﺷ ﻨ ﺎﺧ ﺖ ﯾ ﮏ ﺟ ﺎﻣ ﻌ ﻪ آﻣ ﺎری‪ ،‬ﻣ ﯽ ﺗ ﻮان آن را ﺑ ﺎ ﺟ ﻮاﻣ ﻊ دﯾ ﮕ ﺮ‬
‫ﻣ ﻘ ﺎﯾ ﺴ ﻪ ﮐ ﺮد‪ .‬ﻣ ﻨ ﻈ ﻮر از ﻣ ﻘ ﺎﯾ ﺴ ﻪ دو ﺟ ﺎﻣ ﻌ ﻪ‪ ،‬ﻣ ﻘ ﺎﯾ ﺴ ﻪ ﭘ ﺎراﻣ ﺘ ﺮھ ﺎی ﺗ ﻮزﯾ ﻊ آن ھ ﺎ اﺳ ﺖ‪ .‬ﻣ ﺸ ﺎﺑ ﻪ ﺑ ﺮآورد ﻧ ﻘ ﻄ ﻪ ای‬
‫ﭘﺎراﻣﺘﺮھﺎی دو ﺟﺎﻣﻌﻪ‪ ،‬در اﯾﻦ ﺑﺨﺶ ﺑﻪ ﺑﺮآورد ﻓﺎﺻﻠﻪ ای اﯾﻦ ﭘﺎراﻣﺘﺮھﺎ ﻣﯽ ﭘﺮدازﯾﻢ‪.‬‬

‫‪ ١.۴.۵‬ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﻧﺮﻣﺎل‬


‫دو ﺟ ﺎﻣ ﻌ ﻪ ﻣ ﺴ ﺘ ﻘ ﻞ را در ﻧ ﻈ ﺮ ﺑ ﮕ ﯿ ﺮﯾ ﺪ ﮐ ﻪ ﺑ ﺮاﺳ ﺎس ﯾ ﮏ ﻣ ﺸ ﺨ ﺼ ﻪ ﺑ ﺮرﺳ ﯽ و ﺑ ﺎھ ﻢ ﻣ ﻘ ﺎﯾ ﺴ ﻪ ﻣ ﯽ ﮔ ﺮدﻧ ﺪ‪ .‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬
‫ﺗﻮزﯾﻊ آﻣﺎری ﻣﺸﺨﺼﻪ ﻣﻮرد ﻧﻈﺮ در دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎﺷﺪ‪.‬‬

‫• ﺟﺎﻣﻌﻪ اول‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲ ) :‬‬


‫ﺣﺠﻢ ﺟﺎﻣﻌﻪ‪N :‬‬
‫ﻣﺸﺨﺼﻪ )ﻣﺘﻐﯿﺮ( ﻣﻮرد ﺑﺮرﺳﯽ‪X :‬‬
‫ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ‪µ۱ :‬‬
‫وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ‪σ۱۲ :‬‬

‫• ﺟﺎﻣﻌﻪ دوم‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲ ) :‬‬


‫ﺣﺠﻢ ﺟﺎﻣﻌﻪ‪M :‬‬
‫ﻣﺸﺨﺼﻪ )ﻣﺘﻐﯿﺮ( ﻣﻮرد ﺑﺮرﺳﯽ‪Y :‬‬
‫ﻣﯿﺎﻧﮕﯿﻦ ﺟﺎﻣﻌﻪ‪µ۲ :‬‬
‫وارﯾﺎﻧﺲ ﺟﺎﻣﻌﻪ‪σ۲۲ :‬‬

‫ﺑ ﺮای ﻣ ﺜ ﺎل‪ ،‬ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ ﺟ ﺎﻣ ﻌ ﻪ اول ﻣ ﺘ ﺸ ﮑ ﻞ از داﻧ ﺸ ﺠ ﻮﯾ ﺎﻧ ﯽ ﺑ ﺎﺷ ﺪ ﮐ ﻪ ﺑ ﺮای اوﻟ ﯿ ﻦ ﺑ ﺎر درس اﺣ ﺘ ﻤ ﺎل را اﺧ ﺬ‬


‫ﮐ ﺮده اﻧ ﺪ و ﺟ ﺎﻣ ﻌ ﻪ دوم ﺷ ﺎﻣ ﻞ داﻧ ﺸ ﺠ ﻮﯾ ﺎﻧ ﯽ ﺑ ﺎﺷ ﺪ ﮐ ﻪ ﺑ ﺮای ﭼ ﻨ ﺪﻣ ﯿ ﻦ ﺑ ﺎر اﯾ ﻦ درس را ﮔ ﺮﻓ ﺘ ﻪ اﻧ ﺪ‪ .‬ﻣ ﺸ ﺨ ﺼ ﻪ ﻣ ﻮرد‬
‫ﺑﺮرﺳﯽ را ﻧﻤﺮات ﭘﺎﯾﺎﻧﺘﺮم آن ھﺎ در ﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ‪.‬‬
‫ﺑﺮای ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎﯾﺪ ﺑﻪ ﺑﺮرﺳﯽ ﭘﺎراﻣﺘﺮھﺎی دو ﺟﺎﻣﻌﻪ ﭘﺮداﺧﺘﻪ ﺷﻮد‪ .‬ﺑﻪ ﻋﺒﺎرت دﯾﮕﺮ‪ ،‬ﮔﺎھﯽ ﺑﻪ‬
‫ﻣﻘﺎﯾﺴﻪ ﻣﯿﺎﻧﮕﯿﻦ ھﺎی دو ﺟﺎﻣﻌﻪ )ﯾﻌﻨﯽ ﭘﺎراﻣﺘﺮ ‪ (θ = µ۱ − µ۲‬و ﮔﺎھﯽ ﺑﻪ ﻣﻘﺎﯾﺴﻪ وارﯾﺎﻧﺲ ھﺎی دو ﺟﺎﻣﻌﻪ‬
‫‪σ۱۲‬‬
‫= ‪ (θ‬ﻣﯽ ﭘﺮدازﯾﻢ‪ .‬دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﻪ ﺻﻮرت زﯾﺮ دارﯾﻢ‪:‬‬ ‫‪σ۲۲‬‬
‫)ﯾﻌﻨﯽ ﭘﺎراﻣﺘﺮ‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲‬‬

‫‪٩۶‬‬
‫ﺑﺮای ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮ ﺟﺎﻣﻌﻪ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ N (µ۲ , σ۲۲‬‬

‫ﺑﺮای ﻣﺤﺎﺳﺒﻪ ﺑﺮآورد ﻓﺎﺻﻠﻪ ای‪ ،‬ﺣﺎﻟﺖ ھﺎی ﻣﺘﻔﺎوﺗﯽ ﻣﻤﮑﻦ اﺳﺖ اﺗﻔﺎق ﺑﺎﻓﺘﺪ‪.‬‬

‫ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ﭘﺎراﻣﺘﺮ ‪ θ = µ۱ − µ۲‬وﻗﺘﯽ ‪ σ۱۲‬و ‪ σ۲۲‬ﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ‪.‬‬

‫ﻣ ﯽ ﺧ ﻮاھ ﯿ ﻢ ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪ θ = µ۱ − µ۲‬ﺑ ﺪﺳ ﺖ آورﯾ ﻢ‪ .‬ﭘ ﺲ ﻻزم اﺳ ﺖ ﻓ ﺎﺻ ﻠ ﻪ‬


‫ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬را ﻃﻮری ﺑﺪﺳﺖ آورﯾﻢ ﮐﻪ ‪.P(L < µ۱ − µ۲ < U ) = ۱ − α‬‬
‫ﻃﺒﻖ ﻣﻄﺎﻟﺐ ﺑﺨﺶ ھﺎی ﻗﺒﻞ ﻣﯽ داﻧﯿﻢ ﮐﻪ ﺑﺮآورد ﻧﻘﻄﻪ ای ﻣﻄﻠﻮب ﺑﺮای ﭘﺎراﻣﺘﺮ ‪ θ = µ۱ − µ۲‬ﺑﻪ ﺻﻮرت‬
‫زﯾﺮ اﺳﺖ‬
‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪n‬‬ ‫‪m‬‬
‫= ‪X −Y‬‬ ‫‪Xi −‬‬ ‫‪Yi‬‬
‫‪n‬‬ ‫‪m‬‬
‫‪i=۱‬‬ ‫‪i=۱‬‬
‫‪σ۲۲‬‬ ‫‪σ۱۲‬‬
‫‪ .Y ∼ N (µ۲ ,‬ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ دو ﺟ ﺎﻣ ﻌ ﻪ ﻧ ﺮﻣ ﺎل‪ ،‬ﻣ ﺴ ﺘ ﻘ ﻞ درﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ‬ ‫‪m‬‬
‫)‬ ‫‪ X ∼ N (µ۱ ,‬و‬ ‫‪n‬‬
‫)‬ ‫و ھﻤﭽﻨﯿﻦ‬
‫ﺷﺪه اﻧﺪ ﻣﯽ ﺗﻮان ﻧﺘﯿﺠﻪ ﮔﯿﺮی ﮐﺮد ﮐﻪ‬

‫‪σ۱۲ σ۲۲‬‬
‫‪X − Y ∼ N (µ۱ − µ۲ ,‬‬ ‫) ‪+‬‬
‫‪n‬‬ ‫‪m‬‬

‫و ﺑﻨﺎﺑﺮاﯾﻦ‬

‫) ‪X − Y − (µ۱ − µ۲‬‬
‫=‪Z‬‬ ‫√‬ ‫‪∼ N (۰, ۱).‬‬ ‫)‪(٢-۵‬‬
‫‪σ۱۲‬‬ ‫‪σ۲۲‬‬
‫‪n‬‬
‫‪+ m‬‬

‫از اﯾ ﻨ ﺮو ‪ Z‬ﺗ ﻌ ﺮﯾ ﻒ ﺷ ﺪه ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر اﺳ ﺖ‪ .‬ﺣ ﺎل ﺑ ﺎﯾ ﺪ ﻣ ﻘ ﺎدﯾ ﺮ ‪ a‬و ‪ b‬را ﻃ ﻮری ﺗ ﻌ ﯿ ﯿ ﻦ ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ‬


‫‪ .P(a < Z < b) = ۱ − α‬ﻣﺸﺎﺑﻪ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ﻣﯿﺎﻧﮕﯿﻦ ﯾﮏ ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﺑﺎ وارﯾﺎﻧﺲ ﻣﻌﻠﻮم‪ ،‬ﻓﺮض‬
‫ﻣﯽ ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و ‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ و دارﯾﻢ‪:‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(Z > b‬‬ ‫‪=⇒ P(Z ≤ b) = ۱ −‬‬ ‫‪=⇒ b = z۱− α۲‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(Z < a‬‬ ‫‪=⇒ a = −b = −z۱− α۲‬‬
‫‪۲‬‬

‫‪٩٧‬‬
‫ﭘﺲ ﺑﺎ ﺟﺎﯾﮕﺬاری در ‪ P(a < Z < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬

‫) ‪X − Y − (µ۱ − µ۲‬‬
‫< ‪P(−z۱− α۲‬‬ ‫√‬ ‫‪< z۱− α۲ ) = ۱ − α‬‬
‫‪σ۱۲‬‬ ‫‪σ۲۲‬‬
‫‪n‬‬
‫‪+ m‬‬
‫√‬ ‫√‬
‫‪σ۱۲ σ۲۲‬‬ ‫‪σ۱۲ σ۲۲‬‬
‫‪P(−z۱− α۲‬‬ ‫‪+‬‬ ‫‪< X − Y − (µ۱ − µ۲ ) < z۱− α۲‬‬ ‫‪+ )=۱−α‬‬
‫√ ‪n‬‬ ‫‪m‬‬ ‫‪n √m‬‬
‫‪σ۱۲ σ۲۲‬‬ ‫‪σ۱۲ σ۲۲‬‬
‫‪P(X − Y − z۱− α۲‬‬ ‫‪+‬‬ ‫‪< µ۱ − µ۲ < X − Y + z۱− α۲‬‬ ‫‪+ )=۱−α‬‬
‫|‬ ‫‪{z‬‬ ‫‪n‬‬ ‫}‪m‬‬ ‫|‬ ‫‪{z‬‬ ‫‪n‬‬ ‫}‪m‬‬
‫‪L‬‬ ‫‪U‬‬
‫√‬
‫‪σ۱۲‬‬ ‫‪σ۲۲‬‬
‫‪ (X − Y ± z۱− ۲‬ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ ﺑ ﺮای ‪ θ = µ۱ − µ۲‬اﺳ ﺖ‬ ‫‪α‬‬
‫‪n‬‬
‫‪+‬‬ ‫‪m‬‬
‫)‬ ‫و ﺑ ﻨ ﺎﺑ ﺮاﯾ ﻦ‬
‫ھﺮﮔﺎه ‪ σ۱۲‬و ‪ σ۲۲‬ﻣﻌﻠﻮم ﺑﺎﺷﻨﺪ‪.‬‬

‫‪σ۱۲‬‬
‫= ‪ θ‬وﻗﺘﯽ ﻣﯿﺎﻧﮕﯿﻦ ھﺎ ﻧﺎﻣﻌﻠﻮم ھﺴﺘﻨﺪ‬ ‫‪σ۲۲‬‬
‫ﺑﺮآورد ﻓﺎﺻﻠﻪ ای ﺑﺮای‬

‫ﺑﺮای ﯾﺎدآوری‪ ،‬ﻓﺮض ﮐﻨﯿﺪ دو ﺟﺎﻣﻌﻪ ﻧﺮﻣﺎل ﻣﺴﺘﻘﻞ ﺑﻪ ﺻﻮرت زﯾﺮ دارﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ N (µ۲ , σ۲۲‬‬

‫ﺑﺮای ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮ ﺟﺎﻣﻌﻪ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ N (µ۱ , σ۱۲‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ N (µ۲ , σ۲۲‬‬


‫‪σ۱۲‬‬
‫< ‪.P(L‬‬ ‫ﻣﯽ ﺧﻮاھﯿﻢ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬را ﻃﻮری ﺑﺪﺳﺖ آورﯾﻢ ﮐﻪ ‪< U ) = ۱ − α‬‬
‫‪σ۲۲‬‬
‫‪۱ ∑m‬‬ ‫‪۱ ∑n‬‬
‫‪ S۲۲ = m−‬ﺑ ﻪ ﺗ ﺮﺗ ﯿ ﺐ ﺑ ﺮآوردﮔ ﺮ‬ ‫‪۱‬‬ ‫‪ S۱ = n−۱‬و ) ‪i=۱ (Yi − Y‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ )‪i=۱ (Xi − X‬‬
‫‪۲‬‬

‫ﻣﻄﻠﻮب ﺑﺮای ‪ σ۱۲‬و ‪ σ۲۲‬ھﺴﺘﻨﺪ ﭘﺲ ﺳﻌﯽ ﻣﯽ ﮐﻨﯿﻢ ﺗﺎﺑﻊ ﻣﺤﻮر را ﺑﺎ اﺳﺘﻔﺎده از اﯾﻦ دو ﺑﺮآوردﮔﺮ ﺑﺴﺎزﯾﻢ‪ .‬ﻣﯽ داﻧﯿﻢ‪:‬‬
‫‪(n − ۱)S۱۲‬‬ ‫‪(m − ۱)S۲۲‬‬
‫)‪∼ χ۲ (n − ۱‬‬ ‫‪,‬‬ ‫)‪∼ χ۲ (m − ۱‬‬
‫‪σ۱۲‬‬ ‫‪σ۲۲‬‬
‫ﺑ ﺎ ﺗ ﻮﺟ ﻪ ﺑ ﻪ اﯾ ﻨ ﮑ ﻪ دو ﺟ ﺎﻣ ﻌ ﻪ ﻧ ﺮﻣ ﺎل درﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ ﺷ ﺪه‪ ،‬ﻣ ﺴ ﺘ ﻘ ﻞ ھ ﺴ ﺘ ﻨ ﺪ ﭘ ﺲ ﻃ ﺒ ﻖ وﯾ ﮋﮔ ﯽ ﺗ ﻮزﯾ ﻊ ھ ﺎی اﺣ ﺘ ﻤ ﺎل‪،‬‬
‫‪S۲۲ /σ۲۲‬‬
‫= ‪ T‬ﯾﮏ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ از ﺗﻮزﯾﻌﯽ ﺗﺤﺖ ﻋﻨﻮان اف ﺑﺎ درﺟﺎت آزادی )‪ (m − ۱, n − ۱‬اﺳﺖ ﮐﻪ آن را‬ ‫‪S۱۲ /σ۱۲‬‬

‫ﺑﻪ ﺻﻮرت زﯾﺮ ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪:‬‬


‫‪S۲۲ × σ۱۲‬‬
‫= ‪T‬‬ ‫)‪∼ F (m − ۱, n − ۱‬‬
‫‪S۱۲ × σ۲۲‬‬

‫‪٩٨‬‬
‫ﻣ ﻨ ﺤ ﻨ ﯽ ﭼ ﮕ ﺎﻟ ﯽ اف ﺑ ﺎ درﺟ ﺎت آزادی ) ‪ (v۱ , v۲‬ﻣ ﺸ ﺎﺑ ﻪ ﭼ ﮕ ﺎﻟ ﯽ ﻣ ﺮﺑ ﻊ‪-‬ﮐ ﺎی دارای ﭼ ﻮﻟ ﮕ ﯽ اﺳ ﺖ و ﻣ ﻘ ﺎدﯾ ﺮ ﺗ ﺎﺑ ﻊ‬
‫ﺗﻮزﯾﻊ آن در ﻧﻘﺎط ﻣﺨﺘﻠﻒ ﺑﻪ ازای ‪ v۲ ،v۱‬و ﺑﺮﺧﯽ ﻣﻘﺎدﯾﺮ ‪ α‬در ﺟﺪول ‪ VI‬ﭘﯿﻮﺳﺖ اراﺋﻪ ﺷﺪه اﺳﺖ‪.‬‬
‫‪S۲۲ ×σ۱۲‬‬
‫= ‪ T‬ﺑﻪ ﭘﺎراﻣﺘﺮھﺎی ﺟﺎﻣﻌﻪ واﺑﺴﺘﻪ ﻧﯿﺴﺖ ﭘﺲ ‪ T‬ﯾﮏ ﺗﺎﺑﻊ‬ ‫‪S۱۲ ×σ۲۲‬‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﯾﻨﮑﻪ ﺗﻮزﯾﻊ ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ‬
‫ﻣﺤﻮر اﺳﺖ‪ .‬ﺣﺎل ﻻزم اﺳﺖ ﻣﻘﺎدﯾﺮ ‪ a‬و ‪ b‬ﻃﻮری ﺑﺪﺳﺖ آﯾﻨﺪ ﮐﻪ ‪.P(a < T < b) = ۱ − α‬‬
‫اﮔﺮ ﻓﺮض ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﭼﮕﺎﻟﯽ ﺗﻮزﯾﻊ اف در دو ﻃﺮف ﻧﻘﺎط ‪ a‬و ‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ ،‬آن ﮔﺎه دارﯾﻢ‪:‬‬

‫درواﻗﻊ‪،‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(T ≥ b‬‬ ‫‪=⇒ P(T < b) = ۱ −‬‬ ‫)‪=⇒ b = F۱− α۲ (m − ۱, n − ۱‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(T ≤ a‬‬ ‫)‪=⇒ a = F α۲ (m − ۱, n − ۱‬‬
‫‪۲‬‬
‫ﺑﺎ ﺟﺎﯾﮕﺬاری در ‪ P(a < T < b) = ۱ − α‬ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬
‫(‬ ‫)‬
‫‪S۲۲ × σ۱۲‬‬
‫‪P F α۲ (m − ۱, n − ۱) < ۲‬‬ ‫‪< F۱− α۲ (m − ۱, n − ۱) = ۱ − α‬‬
‫‪S۱ × σ۲۲‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪S۱۲‬‬ ‫‪σ۱۲‬‬ ‫‪S۱۲ ‬‬
‫‪P F ۲ (m − ۱, n − ۱) × ۲ < ۲ < F۱− ۲ (m − ۱, n − ۱) × ۲ ‬‬
‫‪‬‬ ‫‪=۱−α‬‬
‫‪S۲ ‬‬
‫‪α‬‬ ‫‪α‬‬
‫‪S۲‬‬ ‫‪σ۲‬‬
‫|‬ ‫‪{z‬‬ ‫}‬ ‫|‬ ‫‪{z‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬
‫‪S۱۲‬‬ ‫‪S۲‬‬
‫( ﻓ ﺎﺻ ﻠ ﻪ اﻃ ﻤ ﯿ ﻨ ﺎن )‪ ۱۰۰(۱ − α‬درﺻ ﺪ‬ ‫‪S۲۲‬‬
‫ﭘ ﺲ ))‪× F α۲ (m − ۱, n − ۱), S۱۲ × F۱− α۲ (m − ۱, n − ۱‬‬
‫‪۲‬‬
‫‪σ۱۲‬‬
‫= ‪ θ‬اﺳﺖ‪.‬‬ ‫‪σ۲۲‬‬
‫ﺑﺮای‬

‫⋆ ﺗ ﻮﺟ ﻪ ﮐ ﻨ ﯿ ﺪ ﮐ ﻪ ﻃ ﺒ ﻖ وﯾ ﮋﮔ ﯽ ﺗ ﻮزﯾ ﻊ اف‪ ،‬ﺑ ﺮای ﺑ ﺪﺳ ﺖ آوردن ) ‪ Fα (v۱ , v۲‬ﻣ ﯽ ﺗ ﻮان از ) ‪F۱−α (v۲ , v۱‬‬
‫ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺘﻔﺎده ﮐﺮد‪:‬‬
‫‪۱‬‬
‫= ) ‪Fα (v۱ , v۲‬‬
‫) ‪F۱−α (v۲ , v۱‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ دارﯾﻢ‪:‬‬
‫‪۱‬‬
‫= )‪F α۲ (m − ۱, n − ۱‬‬ ‫‪.‬‬
‫)‪F۱− α۲ (n − ۱, m − ۱‬‬

‫‪٩٩‬‬
‫‪σ۱۲‬‬
‫ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬ ‫‪σ۲۲‬‬
‫ﻣﺜﺎل ‪ .١۵-۵‬در ﻣﺜﺎل ‪ ،٧-۵‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٠‬درﺻﺪ ﺑﺮای‬
‫ﺣﻞ‪ :‬ﻃﺒﻖ ﻣﺜﺎل ‪ ٧-۵‬دارﯾﻢ‪:‬‬

‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪۸‬‬ ‫‪۸‬‬
‫‪۸۰‬‬
‫‪n = ۸,‬‬ ‫=‪x‬‬ ‫= ‪xi‬‬ ‫‪= ۱۰,‬‬ ‫= ‪S۱۲‬‬ ‫‪(xi − x)۲ = ۸‬‬
‫‪۸ i=۱‬‬ ‫‪۸‬‬ ‫‪۷ i=۱‬‬
‫∑‪۱‬‬ ‫∑‪۱‬‬
‫‪۹‬‬ ‫‪۹‬‬
‫‪۸۱‬‬
‫‪m = ۹,‬‬ ‫=‪y‬‬ ‫= ‪yi‬‬ ‫‪= ۹,‬‬ ‫‪S۲۲‬‬ ‫=‬ ‫‪(y − y)۲ = ۳۰‬‬
‫‪۹ i=۱‬‬ ‫‪۹‬‬ ‫‪۸ i=۱ i‬‬
‫‪α‬‬ ‫‪α‬‬
‫⇒= ‪۱ − α = ۰٫ ۹ =⇒ α = ۰٫ ۱‬‬ ‫‪= ۰٫ ۰۵ =⇒ ۱ −‬‬ ‫‪= ۰٫ ۹۵‬‬
‫‪‬‬ ‫‪۲‬‬ ‫‪۲‬‬
‫‪F‬‬ ‫‪− ۱, n − ۱) = F۰٫۹۵ (۸, ۷) = ۳٫ ۷۳‬‬
‫‪۱− α۲ (m‬‬
‫⇒=‬
‫= )‪ F α (m − ۱, n − ۱) = F۰٫۰۵ (۸, ۷‬‬ ‫‪۱‬‬
‫=‬ ‫‪۱‬‬
‫‪= ۰٫ ۲۹‬‬
‫‪۲‬‬ ‫)‪F۰٫۹۵ (۷,۸‬‬ ‫‪۳٫۵‬‬

‫و ﺑﻨﺎﺑﺮاﯾﻦ‬
‫‪S۱۲‬‬ ‫‪۸‬‬
‫=‪L‬‬ ‫‪۲‬‬
‫= )‪× F α۲ (m − ۱, n − ۱‬‬ ‫‪× ۰٫ ۲۹ = ۰٫ ۰۷۷‬‬
‫‪S۲‬‬ ‫‪۳۰‬‬
‫‪S۲‬‬ ‫‪۸‬‬
‫= )‪U = ۱۲ × F۱− α۲ (m − ۱, n − ۱‬‬ ‫‪× ۳٫ ۷۳ = ۰٫ ۹۹۵‬‬
‫‪S۲‬‬ ‫‪۳۰‬‬
‫‪σ۱۲‬‬
‫= ‪ θ‬اﺳﺖ‪.‬‬ ‫‪σ۲۲‬‬
‫ﭘﺲ )‪ (۰٫ ۰۷۷, ۰٫ ۹۹۵‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٠‬درﺻﺪ ﺑﺮای‬

‫‪ ٢.۴.۵‬ﻣﻘﺎﯾﺴﻪ دو ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﺴﺘﻘﻞ ﺑﺮﻧﻮﻟﯽ‬


‫دو ﺟﺎﻣﻌﻪ ﻣﺴﺘﻘﻞ ﺑﺮﻧﻮﻟﯽ را درﻧﻈﺮ ﺑﮕﯿﺮﯾﺪ ﮐﻪ ﺑﺮاﺳﺎس ﯾﮏ ﻣﺸﺨﺼﻪ ﺑﺮرﺳﯽ و ﺑﺎ ھﻢ ﻣﻘﺎﯾﺴﻪ ﻣﯽ ﮔﺮدﻧﺪ‪ .‬دارﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , XN ∼ Be(PN‬‬

‫) ‪Y۱ , Y۲ , . . . , YM ∼ Be(PM‬‬

‫ﺑ ﺮای ﻣ ﺜ ﺎل‪ ،‬ﺟ ﺎﻣ ﻌ ﻪ اول را داﻧ ﺸ ﺠ ﻮﯾ ﺎن دﺧ ﺘ ﺮ و ﺟ ﺎﻣ ﻌ ﻪ دوم را داﻧ ﺸ ﺠ ﻮﯾ ﺎن ﭘ ﺴ ﺮ در ﻧ ﻈ ﺮ ﮔ ﺮﻓ ﺘ ﻪ و ﻓ ﺮض ﮐ ﻨ ﯿ ﺪ‬


‫ﻣﺸﺨﺼﻪ ﻣﻮرد ﺑﺮرﺳﯽ‪ ،‬داﺷﺘﻦ اﻋﺘﯿﺎد ﯾﺎ ﻋﺪم اﻋﺘﯿﺎد اﯾﺸﺎن ﺑﺎﺷﺪ‪.‬‬
‫ﻣ ﺸ ﺎﺑ ﻪ ﻗ ﺒ ﻞ‪ ،‬ﺑ ﺮای ﻣ ﻘ ﺎﯾ ﺴ ﻪ دو ﺟ ﺎﻣ ﻌ ﻪ ﺑ ﺮﻧ ﻮﻟ ﯽ ﺑ ﺎﯾ ﺪ ﺑ ﻪ ﺑ ﺮرﺳ ﯽ ﭘ ﺎراﻣ ﺘ ﺮ ‪ θ = PN − PM‬ﺑ ﭙ ﺮدازﯾ ﻢ‪ .‬ﺑ ﺮای‬
‫ﺑﺮآوردﯾﺎﺑﯽ اﺑﺘﺪا از ھﺮﯾﮏ از ﺟﻮاﻣﻊ ﺑﺎﻻ ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﻪ ﺻﻮرت زﯾﺮ ﻣﯽ ﮔﯿﺮﯾﻢ‪:‬‬

‫) ‪X۱ , X۲ , . . . , Xn ∼ Be(PN‬‬

‫) ‪Y۱ , Y۲ , . . . , Ym ∼ Be(PM‬‬

‫‪١٠٠‬‬
‫ﻣﯽ ﺧﻮاھﯿﻢ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ PN − PM‬ﺑﺪﺳﺖ آورﯾﻢ ﭘﺲ ﻓﺎﺻﻠﻪ ﺗﺼﺎدﻓﯽ ) ‪ (L, U‬را‬
‫ﻃﻮری ﺗﻌﯿﯿﻦ ﻣﯽ ﮐﻨﯿﻢ ﮐﻪ‬
‫‪P(L < PN − PM < U ) = ۱ − α.‬‬

‫= ‪ Pn − Pm‬ﺑ ﺮآوردﮔ ﺮ ﻣ ﻄ ﻠ ﻮب ﻧ ﻘ ﻄ ﻪ ای ﺑ ﺮای ‪ PN − PM‬اﺳ ﺖ ﺑ ﻪ ﻃ ﻮری ﮐ ﻪ ‪ t۱‬ﺗ ﻌ ﺪاد‬ ‫‪t۱‬‬


‫‪n‬‬
‫‪−‬‬ ‫‪t۲‬‬
‫‪m‬‬
‫ﻣ ﯽ داﻧ ﯿ ﻢ ﮐ ﻪ‬
‫ﻣﻮﻓﻘﯿﺖ در ﻧﻤﻮﻧﻪ از ﺟﺎﻣﻌﻪ اول و ‪ t۲‬ﺗﻌﺪاد ﻣﻮﻓﻘﯿﺖ در ﻧﻤﻮﻧﻪ ﺟﺎﻣﻌﻪ دوم ﻣﯽ ﺑﺎﺷﺪ‪ .‬ﺳﻌﯽ ﻣﯽ ﮐﻨﯿﻢ ﺗﺎﺑﻊ ﻣﺤﻮر را‬
‫ﺑﺎ اﺳﺘﻔﺎده از ‪ Pn − Pm‬ﺑﺴﺎزﯾﻢ‪ .‬ﻃﺒﻖ ﻗﻀﯿﻪ ﺣﺪ ﻣﺮﮐﺰی و ﻣﺸﺎﺑﻪ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ در ﯾﮏ‬
‫ﺟﺎﻣﻌﻪ ﺑﺮﻧﻮﻟﯽ در ﺑﺨﺶ ‪ ،۴.٣.۵‬وﻗﺘﯽ اﻧﺪازه دو ﻧﻤﻮﻧﻪ ﯾﻌﻨﯽ ‪ n‬و ‪ m‬ﺑﻪ اﻧﺪازه ﮐﺎﻓﯽ ﺑﺰرگ ﺑﺎﺷﺪ ﺑﻪ ﻃﻮر ﺗﻘﺮﯾﺒﯽ‬
‫دارﯾﻢ‪:‬‬
‫‪Pn − PN‬‬ ‫‪Pm − PM‬‬
‫√ = ‪Zn‬‬ ‫‪∼ N (۰, ۱),‬‬ ‫√ = ‪Zm‬‬ ‫‪∼ N (۰, ۱).‬‬
‫) ‪Pn (۱−Pn‬‬ ‫) ‪Pm (۱−Pm‬‬
‫‪n‬‬ ‫‪m‬‬

‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫) ‪Pn − Pm − (PN − PM‬‬
‫√ =‪Z‬‬ ‫)‪∼ N (۰, ۱‬‬
‫) ‪Pn (۱−Pn‬‬ ‫) ‪Pm (۱−Pm‬‬
‫‪n‬‬
‫‪+‬‬ ‫‪m‬‬

‫ﯾ ﮏ ﺗ ﺎﺑ ﻊ ﻣ ﺤ ﻮر اﺳ ﺖ‪ .‬ﺣ ﺎل ﺑ ﺎﯾ ﺪ ﻣ ﻘ ﺎدﯾ ﺮ ‪ a‬و ‪ b‬را ﻃ ﻮری ﺗ ﻌ ﯿ ﯿ ﻦ ﮐ ﻨ ﯿ ﻢ ﮐ ﻪ ‪ .P(a < Z < b) = ۱ − α‬ﻣ ﺸ ﺎﺑ ﻪ‬


‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ﺑﺮای ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ ﯾﮏ ﺟﺎﻣﻌﻪ ﺑﺮﻧﻮﻟﯽ‪ ،‬ﻓﺮض ﻣﯽ ﮐﻨﯿﻢ ﮐﻪ ﺳﻄﺢ زﯾﺮ ﻣﻨﺤﻨﯽ ﻧﺮﻣﺎل در دو ﻃﺮف‬
‫ﻧﻘﺎط ‪ a‬و ‪ b‬ﺑﺮاﺑﺮ ﺑﺎﺷﺪ‪ .‬از اﯾﻨﺮو دارﯾﻢ‪:‬‬
‫‪α‬‬ ‫‪α‬‬
‫= )‪P(Z > b‬‬ ‫‪=⇒ P(Z ≤ b) = ۱ −‬‬ ‫‪=⇒ b = z۱− α۲‬‬
‫‪۲‬‬ ‫‪۲‬‬
‫‪α‬‬
‫= )‪P(Z < a‬‬ ‫‪=⇒ a = −b = −z۱− α۲‬‬
‫‪۲‬‬
‫ﺑﺎ ﺟﺎﯾﮕﺬاری ﺑﺪﺳﺖ ﻣﯽ آورﯾﻢ‪:‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫) ‪Pn − Pm − (PN − PM‬‬ ‫‪‬‬
‫√ < ‪P −z۱− α‬‬ ‫‪< z۱− α  = ۱ − α‬‬
‫‪۲‬‬ ‫) ‪Pn (۱−Pn‬‬ ‫) ‪P (۱−P‬‬ ‫‪۲‬‬
‫‪n‬‬
‫‪+ m m m‬‬
‫‪‬‬ ‫√‬ ‫√‬ ‫‪‬‬
‫) ‪Pn (۱ − Pn‬‬ ‫) ‪Pm (۱ − Pm‬‬ ‫) ‪Pn (۱ − Pn‬‬ ‫) ‪Pm (۱ − Pm‬‬
‫‪P −z۱− α‬‬ ‫‪+‬‬ ‫‪< Pn − Pm − (PN − PM ) < z۱− α‬‬ ‫‪+‬‬ ‫‪=۱−α‬‬
‫‪۲‬‬ ‫‪n‬‬ ‫‪m‬‬ ‫‪۲‬‬ ‫‪n‬‬ ‫‪m‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫√‬ ‫√‬ ‫‪‬‬
‫‪‬‬ ‫) ‪Pn (۱ − Pn‬‬ ‫) ‪Pm (۱ − Pm‬‬ ‫) ‪Pn (۱ − Pn‬‬ ‫‪Pm (۱ − Pm ) ‬‬
‫‪P‬‬‫‪Pn − Pm − z۱− α‬‬ ‫‪+‬‬ ‫‪< PN − PM < Pn − Pm + z۱− α‬‬ ‫‪+‬‬ ‫‪=۱−α‬‬
‫‪‬‬
‫‪‬‬ ‫‪۲‬‬ ‫‪n‬‬ ‫‪m‬‬ ‫‪۲‬‬ ‫‪n‬‬ ‫‪m‬‬ ‫‪‬‬
‫|‬ ‫‪{z‬‬ ‫}‬ ‫|‬ ‫‪{z‬‬ ‫}‬
‫‪L‬‬ ‫‪U‬‬

‫(‬ ‫√‬ ‫√‬ ‫)‬


‫‪Pn − Pm − z۱− α۲ Pn (۱n−Pn ) +‬‬ ‫) ‪Pm (۱−Pm‬‬
‫‪m‬‬
‫‪, Pn‬‬ ‫‪− Pm + z۱− α۲‬‬ ‫) ‪Pn (۱−Pn‬‬
‫‪n‬‬
‫‪+‬‬ ‫) ‪Pm (۱−Pm‬‬
‫‪m‬‬
‫و ﺑﻨﺎﺑﺮاﯾﻦ‬
‫ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن )‪ ۱۰۰(۱ − α‬درﺻﺪ ﺑﺮای ‪ θ = PN − PM‬اﺳﺖ‪.‬‬

‫‪١٠١‬‬
‫ﻣﺜﺎل ‪ .١۶-۵‬ﻓﺮض ﮐﻨﯿﺪ در ﯾﮏ ﻧﻈﺮﺳﻨﺠﯽ‪ P۱ ،‬و ‪ P۲‬ﺑﻪ ﺗﺮﺗﯿﺐ ﻧﺸﺎن دھﻨﺪه ﻧﺴﺒﺖ آرای ﻣﻮاﻓﻖ در دو ﺣﻮزه‬
‫رای ﮔﯿﺮی ﺷﻤﺎره ھﺎی ‪ ١‬و ‪ ٢‬ﺑﺎﺷﺪ‪ .‬آرای دو ﺣﻮزه ﻣﺴﺘﻘﻞ ﺑﻮده و ﻧﻤﻮﻧﻪ ھﺎی ﺑﻪ دﺳﺖ آﻣﺪه از آن ھﺎ ﺑﻪ ﺻﻮرت‬
‫زﯾﺮ اﺳﺖ‪:‬‬
‫ﺣﻮزه ﺷﻤﺎره ‪ ١٨٠ :١‬ﻧﻔﺮ ﻣﻮاﻓﻖ و ‪ ١٠٠‬ﻧﻔﺮ ﻣﺨﺎﻟﻒ‬
‫ﺣﻮزه ﺷﻤﺎره ‪ ٢٠١ :٢‬ﻧﻔﺮ ﻣﻮاﻓﻖ و ‪ ١۶٠‬ﻣﺨﺎﻟﻒ‬
‫ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٠‬درﺻﺪی ﺑﺮای ‪ P۱ − P۲‬ﺑﺪﺳﺖ آورﯾﺪ‪.‬‬
‫ﺣﻞ‪ :‬ﻣﺘﻐﯿﺮھﺎی ﺗﺼﺎدﻓﯽ ‪ X‬و ‪ Y‬را ﺑﻪ ﺻﻮرت زﯾﺮ ﺗﻌﺮﯾﻒ ﻣﯽ ﮐﻨﯿﻢ‪:‬‬
‫ﻣﻮاﻓﻖ ﺑﻮدن ﯾﺎ ﻧﺒﻮدن ﯾﮏ ﻧﻔﺮ در ﺣﻮزه ﺷﻤﺎره ‪X :١‬‬
‫ﻣﻮاﻓﻖ ﺑﻮدن ﯾﺎ ﻧﺒﻮدن ﯾﮏ ﻧﻔﺮ در ﺣﻮزه ﺷﻤﺎره ‪Y :٢‬‬
‫ﻣ ﯽ داﻧ ﯿ ﻢ ﮐ ﻪ ) ‪ X ∼ Be(P۱‬و ) ‪ .Y ∼ Be(P۲‬ھ ﻤ ﭽ ﻨ ﯿ ﻦ ﻣ ﯽ داﻧ ﯿ ﻢ ﮐ ﻪ ﺗ ﻔ ﺎﺿ ﻞ ﻧ ﺴ ﺒ ﺖ ﻣ ﻮﻓ ﻘ ﯿ ﺖ در دو ﻧ ﻤ ﻮﻧ ﻪ‪،‬‬
‫ﺑﺮآوردﮔﺮ ﻣﻄﻠﻮب ﺑﺮای ﺗﻔﺎﺿﻞ ﻧﺴﺒﺖ ﻣﻮﻓﻘﯿﺖ در دو ﺟﺎﻣﻌﻪ اﺳﺖ‪ .‬ﻃﺒﻖ داده ھﺎی ﺳﻮال دارﯾﻢ‪:‬‬
‫‪α‬‬
‫‪۱ − α = ۰٫ ۹ =⇒ α = ۰٫ ۱ =⇒ ۱ −‬‬ ‫‪= ۰٫ ۹۵ =⇒ z۰٫۹۵ = ۱٫ ۶۴۵‬‬
‫‪۲‬‬
‫‪۱۸۰‬‬ ‫‪۲۰۱‬‬
‫‪n = ۲۸۰,‬‬ ‫= ‪Pn‬‬ ‫‪= ۰٫ ۶۴,‬‬ ‫‪m = ۳۶۱,‬‬ ‫= ‪Pm‬‬ ‫‪= ۰٫ ۵۶‬‬
‫‪۲۸۰‬‬ ‫‪۳۶۱‬‬
‫ﺑﻨﺎﺑﺮاﯾﻦ‬
‫√‬
‫) ‪Pn (۱ − Pn ) Pm (۱ − Pm‬‬
‫‪L = Pn − Pm − z۱− α۲‬‬ ‫‪+‬‬
‫√‪n‬‬ ‫‪m‬‬
‫‪۰٫ ۶۴ × ۰٫ ۳۶ ۰٫ ۵۶ × ۰٫ ۴۴‬‬
‫× ‪= ۰٫ ۶۴ − ۰٫ ۵۶ − ۱٫ ۶۴۵‬‬ ‫‪+‬‬
‫‪۲۸۰‬‬ ‫‪۳۶۱‬‬
‫‪= −۰٫ ۰۸ − ۰٫ ۰۶۴ = −۰٫ ۱۴۴‬‬
‫√‬
‫) ‪Pn (۱ − Pn ) Pm (۱ − Pm‬‬
‫‪U = Pn − Pm − z۱− α۲‬‬ ‫‪+‬‬
‫√‪n‬‬ ‫‪m‬‬
‫‪۰٫ ۶۴ × ۰٫ ۳۶ ۰٫ ۵۶ × ۰٫ ۴۴‬‬
‫× ‪= ۰٫ ۶۴ − ۰٫ ۵۶ + ۱٫ ۶۴۵‬‬ ‫‪+‬‬
‫‪۲۸۰‬‬ ‫‪۳۶۱‬‬
‫‪= −۰٫ ۰۸ + ۰٫ ۰۶۴ = −۰٫ ۰۱۶‬‬

‫و )‪ (−۰٫ ۱۴۴, −۰٫ ۰۱۶‬ﯾﮏ ﻓﺎﺻﻠﻪ اﻃﻤﯿﻨﺎن ‪ ٩٠‬درﺻﺪی ﺑﺮای ‪ P۱ − P۲‬اﺳﺖ‪.‬‬

‫‪١٠٢‬‬
‫‪ ۵.۵‬آزﻣﻮن ﻓﺮض ھﺎی آﻣﺎری‬
‫در اﺳﺘﻨﺒﺎط آﻣﺎری‪ ،‬ھﺪف ﺷﻨﺎﺧﺖ ﺟﺎﻣﻌﻪ آﻣﺎری اﺳﺖ‪ .‬ﯾﮑﯽ از روش ھﺎی ﺷﻨﺎﺧﺖ ﯾﮏ ﺟﺎﻣﻌﻪ آﻣﺎری ﺑﺮرﺳﯽ‬
‫ادﻋﺎھﺎﯾﯽ اﺳﺖ ﮐﻪ ﭘﯿﺮاﻣﻮن آن ﺟﺎﻣﻌﻪ ﻣﻄﺮح ﻣﯽ ﮔﺮدد‪.‬‬
‫ﺑﺮای روﺷﻦ ﺷﺪن ﻣﻮﺿﻮع‪ ،‬ﻓﺮض ﮐﻨﯿﺪ آزﻣﺎﯾﺸﯽ ﻧﺸﺎن داده ﮐﻪ ﻣﯿﺰان ﻣﻮﺛﺮ ﺑﻮدن ﻧﻮﻋﯽ داروی اﺳﺘﺎﻧﺪارد روی‬
‫ﯾ ﮏ ﺑ ﯿ ﻤ ﺎری ﺑ ﺨ ﺼ ﻮص‪ ۶٠ ،‬درﺻ ﺪ اﺳ ﺖ‪ .‬ﯾ ﮏ داروﺳ ﺎز ادﻋ ﺎ ﻣ ﯽ ﮐ ﻨ ﺪ ﮐ ﻪ اﺛ ﺮ داروی ﺟ ﺪﯾ ﺪی ﮐ ﻪ او ﺳ ﺎﺧ ﺘ ﻪ اﺳ ﺖ‬
‫ﺑﯿﺸﺘﺮ از داروی اﺳﺘﺎﻧﺪارد ﻣﯽ ﺑﺎﺷﺪ‪ .‬اﯾﻦ ادﻋﺎ ﯾﮏ ﻓﺮض آﻣﺎری اﺳﺖ‪.‬‬
‫ﺣﺎل ﺑﺮای اﯾﻨﮑﻪ اﯾﻦ داروﺳﺎز را ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار دھﯿﻢ ﺑﺎﯾﺪ اﯾﻦ دارو را روی ﺟﺎﻣﻌﻪ آﻣﺎری ﻣﻮردﻧﻈﺮ‪ ،‬ﯾﻌﻨﯽ‬
‫ﺑﯿﻤﺎران‪ ،‬آزﻣﺎﯾﺶ ﮐﻨﯿﻢ و ﻧﺘﺎﯾﺞ را ﻣﻮرد ﺑﺮرﺳﯽ ﻗﺮار دھﯿﻢ‪ .‬اﻣﺎ آزﻣﺎﯾﺶ اﯾﻦ دارو ﺑﺮ روی ﺗﻤﺎم ﺑﯿﻤﺎران ﺟﺎﻣﻌﻪ ﮐﺎر‬
‫ﻋﺎﻗﻼﻧﻪ ای ﻧﯿﺴﺖ و ﺑﺎﯾﺪ دارو را ﺑﺮ روی ﺗﻌﺪادی از اﻓﺮاد ﺟﺎﻣﻌﻪ آزﻣﺎﯾﺶ ﮐﻨﯿﻢ ﮐﻪ اﯾﻦ ﺗﻌﺪاد اﻓﺮاد ھﻤﺎن ﻧﻤﻮﻧﻪ ﻣﺎ‬
‫را ﺗﺸﮑﯿﻞ ﻣﯽ دھﻨﺪ‪ .‬ﺑﻨﺎﺑﺮاﯾﻦ ﻓﺮض ﮐﻨﯿﺪ ﮐﻪ اﯾﻦ دارو را روی ‪ ٢٠‬ﺑﯿﻤﺎر آزﻣﺎﯾﺶ ﮐﻨﯿﻢ و ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ‪ X‬را‬
‫ﺑﺮاﺑﺮ ﺑﺎ ﺗﻌﺪاد ﺑﯿﻤﺎراﻧﯽ در ﺑﯿﻦ اﯾﻦ ‪ ٢٠‬ﻧﻔﺮ درﻧﻈﺮ ﺑﮕﯿﺮﯾﻢ ﮐﻪ ﺗﻮﺳﻂ داروی ﺟﺪﯾﺪ ﺑﻬﺒﻮد ﯾﺎﻓﺘﻪ اﻧﺪ‪ .‬در اﯾﻦ ﺻﻮرت‬

‫)‪X ∼ Bin(۲۰, p‬‬

‫ﮐ ﻪ در آن ‪ p‬درﺻ ﺪ ﻣ ﻮﺛ ﺮ ﺑ ﻮدن داروی ﺟ ﺪﯾ ﺪ ﺑ ﻮده ﮐ ﻪ ﻣ ﻘ ﺪاری ﻧ ﺎﻣ ﻌ ﻠ ﻮم اﺳ ﺖ‪ .‬ﺣ ﺎل ﻣ ﯽ ﺗ ﻮان ادﻋ ﺎی ﻣ ﻄ ﺮح ﺷ ﺪه‬


‫ﺗﻮﺳﻂ داروﺳﺎز ﻣﺒﻨﯽ ﺑﺮ اﯾﻨﮑﻪ ﻣﯿﺰان ﻣﻮﺛﺮ ﺑﻮدن داروی ﺟﺪﯾﺪ ﺑﯿﺸﺘﺮ از داروی اﺳﺘﺎﻧﺪارد اﺳﺖ را ﺑﻪ ﺻﻮرت زﯾﺮ‬
‫ﻧﻤﺎﯾﺶ داد‪:‬‬
‫‪p > ۰٫ ۶‬‬ ‫≡‬ ‫داروی ﺟﺪﯾﺪ ﺑﻬﺘﺮ از داروی اﺳﺘﺎﻧﺪارد اﺳﺖ‬
‫اﮐ ﻨ ﻮن ﺑ ﺎﯾ ﺪ ﺑ ﻪ وﺳ ﯿ ﻠ ﻪ اﻃ ﻼﻋ ﺎﺗ ﯽ ﮐ ﻪ از ﻧ ﻤ ﻮﻧ ﻪ ﺑ ﺪﺳ ﺖ ﻣ ﯽ آﯾ ﺪ در ﻣ ﻮرد درﺳ ﺖ ﺑ ﻮدن ﯾ ﺎ ﻧ ﺒ ﻮدن ادﻋ ﺎی ﻣ ﻄ ﺮح ﺷ ﺪه‬
‫ﺗﺼﻤﯿﻢ ﮔﺮﻓﺖ‪.‬‬
‫ﻓﺮض ﻣﻘﺎﺑﻞ‪ :‬ادﻋﺎی ﻣﻄﺮح ﺷﺪه درﺑﺎره ﺟﺎﻣﻌﻪ آﻣﺎری را در ﻓﺮض ﻣﻘﺎﺑﻞ ﻗﺮار ﻣﯽ دھﯿﻢ و آن را ﺑﺎ ﻧﻤﺎد ‪H۱‬‬
‫ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪.‬‬
‫ﻓﺮض ﺻﻔﺮ‪ :‬ﻋﮑﺲ ادﻋﺎی ﻣﻄﺮح ﺷﺪه درﺑﺎره ﺟﺎﻣﻌﻪ آﻣﺎری را در ﻓﺮض ﺻﻔﺮ ﻗﺮار ﻣﯽ دھﯿﻢ و آن را ﺑﺎ ﻧﻤﺎد‬
‫‪ H۰‬ﻧﻤﺎﯾﺶ ﻣﯽ دھﯿﻢ‪.‬‬
‫ﺑﺮای ﻣﺜﺎل‪ ،‬در ﻣﺜﺎل آزﻣﺎﯾﺶ ﺗﺎﺛﯿﺮ داروی ﺟﺪﯾﺪ دارﯾﻢ‪:‬‬
‫‪‬‬
‫‪ H : p ≤ ۰٫ ۶‬‬
‫‪۰‬‬
‫‪H۱ : p > ۰٫ ۶‬‬

‫‪١٠٣‬‬
‫ﺑ ﺮای ﺗ ﺼ ﻤ ﯿ ﻢ ﮔ ﯿ ﺮی راﺟ ﻊ ﺑ ﻪ ادﻋ ﺎ ﯾ ﺎ ﻋ ﮑ ﺲ ادﻋ ﺎ‪ ،‬ﺑ ﺎﯾ ﺪ ﻧ ﺎﺣ ﯿ ﻪ ﺑ ﺤ ﺮاﻧ ﯽ داده ﺷ ﺪه در ﺟ ﺪاول آزﻣ ﻮن ھ ﺎ را ﺑ ﺮ‬
‫اﺳﺎس اﻃﻼﻋﺎت ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ﺑﺪﺳﺖ آورد‪.‬‬
‫• اﮔﺮ ﻧﺎﻣﺴﺎوی در ﻧﺎﺣﯿﻪ ﺑﺤﺮاﻧﯽ درﺳﺖ ﺑﻮدن آن ﮔﺎه ﻓﺮض ‪ H۰‬را رد ﻣﯽ ﮐﻨﯿﻢ و‬
‫• اﮔ ﺮ ﻧ ﺎﻣ ﺴ ﺎوی در ﻧ ﺎﺣ ﯿ ﻪ ﺑ ﺤ ﺮاﻧ ﯽ درﺳ ﺖ ﻧ ﺒ ﻮد آن ﮔ ﺎه ﻓ ﺮض ‪ H۰‬را رد ﻧ ﻤ ﯽ ﮐ ﻨ ﯿ ﻢ و ادﻋ ﺎی ﻣ ﻄ ﺮح ﺷ ﺪه را رد‬
‫ﻣﯽ ﮐﻨﯿﻢ‪.‬‬
‫ﺑﻄﻮر ﮐﻠﯽ ﻧﺎﺣﯿﻪ ﺑﺤﺮاﻧﯽ آزﻣﻮن ﻓﺮض ھﺎی آﻣﺎری ﻣﺨﺘﻠﻒ را ﻣﯽ ﺗﻮان ﺑﻪ ﺻﻮرت زﯾﺮ ﺑﺪﺳﺖ آورد‪:‬‬

‫‪ .A‬آزﻣﻮن ﻣﯿﺎﻧﮕﯿﻦ وﻗﺘﯽ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺗﻮزﯾﻊ ) ‪ N (µ, σ ۲‬ﺑﻮده و ‪ σ ۲‬ﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪µ = µ۰‬‬ ‫‪σ‬‬
‫‪۰‬‬
‫} √ ‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : X > µ۰ + z۱−α‬‬
‫‪ H۱ :‬‬ ‫‪µ > µ۰‬‬ ‫‪n‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪µ = µ۰‬‬ ‫‪σ‬‬
‫‪۰‬‬
‫} √ ‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : X > µ۰ − z۱−α‬‬
‫‪ H۱ :‬‬ ‫‪µ < µ۰‬‬ ‫‪n‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪X > µ۰ + z۱− α۲ √n ‬‬
‫‪σ‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪۰‬‬ ‫‪µ = µ۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) :‬‬ ‫‪or‬‬ ‫}‬
‫‪‬‬
‫‪‬‬ ‫‪H :‬‬ ‫‪µ ̸= µ۰‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪ ۱‬‬ ‫‪‬‬
‫‪X < µ۰ − z۱− α √σ ‬‬ ‫‪‬‬
‫‪۲‬‬ ‫‪n‬‬

‫‪ .B‬آزﻣﻮن ﻣﯿﺎﻧﮕﯿﻦ وﻗﺘﯽ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺗﻮزﯾﻊ ) ‪ N (µ, σ ۲‬ﺑﻮده و ‪ σ ۲‬ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪µ = µ۰‬‬ ‫‪Sn−۱‬‬
‫‪۰‬‬
‫} √ )‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : X > µ۰ + t۱−α (n − ۱‬‬
‫‪ H۱ :‬‬ ‫‪µ > µ۰‬‬ ‫‪n‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪µ = µ۰‬‬ ‫‪Sn−۱‬‬
‫‪۰‬‬
‫} √ )‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : X < µ۰ − t۱−α (n − ۱‬‬
‫‪ H۱ :‬‬ ‫‪µ < µ۰‬‬ ‫‪n‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪Sn−۱ ‬‬
‫‪X > µ۰ + t۱− ۲ (n − ۱) n ‬‬
‫√‬
‫‪‬‬
‫‪H :‬‬ ‫‪‬‬
‫‪‬‬
‫‪α‬‬
‫‪‬‬
‫‪‬‬
‫‪۰‬‬ ‫‪µ = µ۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) :‬‬ ‫‪or‬‬ ‫}‬
‫‪‬‬
‫‪‬‬ ‫‪H :‬‬ ‫‪µ ̸= µ۰‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪ ۱‬‬ ‫‪‬‬ ‫‪‬‬
‫‪X < µ۰ − t۱− α (n − ۱) S√n−۱ ‬‬
‫‪۲‬‬ ‫‪n‬‬

‫‪١٠۴‬‬
‫‪ .C‬آزﻣﻮن وارﯾﺎﻧﺲ وﻗﺘﯽ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺗﻮزﯾﻊ ) ‪ N (µ, σ ۲‬ﺑﻮده و ‪ µ‬ﻧﺎﻣﻌﻠﻮم اﺳﺖ‪.‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪σ ۲ = σ۰۲‬‬ ‫‪σ۰۲‬‬
‫‪۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : Sn−‬‬
‫‪۲‬‬
‫)‪۱ > χ۱−α (n − ۱‬‬
‫‪۲‬‬
‫}‬
‫‪ H۱ :‬‬ ‫‪σ ۲ > σ۰۲‬‬ ‫‪n−۱‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪σ ۲ = σ۰۲‬‬ ‫‪σ۰۲‬‬
‫‪۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : Sn−‬‬
‫‪۲‬‬
‫)‪۱ < χα (n − ۱‬‬
‫‪۲‬‬
‫}‬
‫‪ H۱ :‬‬ ‫‪σ ۲ < σ۰۲‬‬ ‫‪n−۱‬‬
‫‪‬‬ ‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪۲‬‬ ‫‪۲‬‬ ‫‪−‬‬ ‫‪۱‬‬ ‫‪σ۰۲ ‬‬
‫‪‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪‬‬ ‫‪S‬‬
‫‪ n−۱‬‬
‫>‬ ‫‪χ‬‬ ‫‪۱− ۲‬‬
‫‪α‬‬ ‫‪(n‬‬ ‫)‬ ‫‪n−۱ ‬‬‫‪‬‬
‫‪۰‬‬ ‫‪σ ۲ = σ۰۲‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) :‬‬ ‫‪or‬‬ ‫}‬
‫‪‬‬
‫‪‬‬ ‫‪H :‬‬ ‫‪σ ۲ ̸= σ۰۲‬‬ ‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪ ۱‬‬ ‫‪‬‬
‫‪ S ۲ < χ۲α (n − ۱) σ۰۲‬‬ ‫‪‬‬
‫‪‬‬
‫‪n−۱‬‬ ‫‪۲‬‬ ‫‪n−۱‬‬

‫‪ .D‬آزﻣﻮن اﺣﺘﻤﺎل ﻣﻮﻓﻘﯿﺖ وﻗﺘﯽ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ از ﺗﻮزﯾﻊ )‪ Be(, p‬ﺑﻮده و اﻧﺪازه ﻧﻤﻮﻧﻪ ﺑﻪ اﻧﺪازه ﮐﺎﻓﯽ ﺑﺰرگ‬

‫‪‬‬
‫اﺳﺖ‪.‬‬
‫‪H :‬‬ ‫√‬
‫‪۰‬‬ ‫‪p = p۰‬‬ ‫) ‪pn (۱ − pn‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : pn > p۰ + z۱−α‬‬ ‫}‬
‫‪H۱ :‬‬ ‫‪p > p۰‬‬ ‫‪n‬‬
‫‪‬‬ ‫√‬
‫‪H :‬‬ ‫‪p = p۰‬‬ ‫) ‪pn (۱ − pn‬‬
‫‪۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) : pn < p۰ − z۱−α‬‬ ‫}‬
‫‪H۱ :‬‬ ‫‪p < p۰‬‬ ‫‪n‬‬
‫‪‬‬ ‫‪‬‬ ‫√‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬ ‫‪‬‬
‫‪‬‬ ‫‪pn (۱−pn ) ‬‬
‫‪‬‬
‫‪‬‬
‫‪H :‬‬ ‫‪‬‬ ‫‪p > p۰ + z۱− ۲‬‬
‫‪ n‬‬
‫‪α‬‬
‫‪n‬‬ ‫‪‬‬
‫‪‬‬
‫‪۰‬‬ ‫‪p = p۰‬‬
‫‪=⇒ C = {(X۱ , X۲ , . . . , Xn ) :‬‬ ‫‪or‬‬ ‫}‬
‫‪‬‬
‫‪‬‬ ‫‪H :‬‬ ‫‪p ̸= p۰‬‬ ‫‪‬‬
‫‪‬‬ ‫√‬ ‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪ ۱‬‬ ‫‪‬‬
‫‪p < p − z α pn (۱−pn ) ‬‬ ‫‪‬‬
‫‪n‬‬ ‫‪۰‬‬ ‫‪۱− ۲‬‬ ‫‪n‬‬

‫ﻣﺜﺎل ‪ .١٧-۵‬ﯾﮏ ﮐﺎرﺧﺎﻧﻪ ﺗﻮﻟﯿﺪ ﮐﻨﻨﺪه ﻻﻣﭗ ھﺎی روﺷﻨﺎﯾﯽ‪ ،‬ﻻﻣﭗ ھﺎﯾﯽ ﺗﻮﻟﯿﺪ ﻣﯽ ﮐﻨﺪ ﮐﻪ ﻃﻮل ﻋﻤﺮ آن ھﺎ از‬
‫ﺗﻮزﯾﻊ ﻧﺮﻣﺎل ﺑﺎ ﻣﯿﺎﻧﮕﯿﻦ ‪ ٨٠٠‬ﺳﺎﻋﺖ و اﻧﺤﺮاف ﻣﻌﯿﺎر ‪ ۴٠‬ﺳﺎﻋﺖ ﭘﯿﺮوی ﻣﯽ ﮐﻨﺪ‪ .‬ﻣﻬﻨﺪس ﮐﻨﺘﺮل ﮐﯿﻔﯿﺖ اﯾﻦ‬
‫ﮐﺎرﺧﺎﻧﻪ ﻣﺪﻋﯽ اﺳﺖ ﮐﻪ ﻣﯿﺎﻧﮕﯿﻦ ﻃﻮل ﻋﻤﺮ ﻻﻣﭗ ھﺎی روﺷﻨﺎﯾﯽ ﺗﻮﻟﯿﺪ ﺷﺪه در اﯾﻦ ﮐﺎرﺧﺎﻧﻪ ‪ ٨٠٠‬ﺳﺎﻋﺖ ﻧﯿﺴﺖ‪.‬‬
‫ﺟﻬﺖ ﺑﺮرﺳﯽ اﯾﻦ ادﻋﺎ‪ ،‬ﯾﮏ ﻧﻤﻮﻧﻪ ﺗﺼﺎدﻓﯽ ‪ ٣٠‬ﺗﺎﯾﯽ از آن ﻻﻣﭗ ھﺎ را اﻧﺘﺨﺎب ﮐﺮده و ﻣﺸﺎھﺪه ﺷﺪ ﮐﻪ ﻣﯿﺎﻧﮕﯿﻦ‬
‫ﻧﻤﻮﻧﻪ ‪ ٧٨٨‬ﺳﺎﻋﺖ اﺳﺖ‪ .‬ادﻋﺎی ﻣﻄﺮح ﺷﺪه را ﺑﺎ ﺧﻄﺎی ‪ ۰٫ ۰۴‬آزﻣﻮن ﮐﻨﯿﺪ‪.‬‬
‫ﺣﻞ‪ :‬اﮔﺮ ‪ X‬ﻣﺘﻐﯿﺮ ﺗﺼﺎدﻓﯽ ﺗﻌﺮﯾﻒ ﺷﺪه ﻣﺮﺑﻮط ﺑﻪ ﻃﻮل ﻋﻤﺮ ﻻﻣﭗ ھﺎی روﺷﻨﺎﯾﯽ ﺑﺎﺷﺪ‪ ،‬دارﯾﻢ‪:‬‬
‫) ‪X ∼ N (µ, σ ۲‬‬

‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ ادﻋﺎی ﻣﻄﺮح ﺷﺪه‪ ،‬آزﻣﻮن ﻓﺮض آﻣﺎری ﻣﻮرد ﻧﻈﺮ ﺑﻪ ﺻﻮرت زﯾﺮ اﺳﺖ‪:‬‬
‫‪‬‬
‫‪ H : µ = ۸۰۰‬‬
‫‪۰‬‬
‫‪H۱ : µ ̸= ۸۰۰‬‬

‫‪١٠۵‬‬
‫ﺑﺎ ﺗﻮﺟﻪ ﺑﻪ اﻃﻼﻋﺎت ﺟﺎﻣﻌﻪ‪ σ = ۴۰ ،‬و ‪ .µ۰ = ۸۰۰‬ھﻤﭽﻨﯿﻦ ﻃﺒﻖ اﻃﻼﻋﺎت ﻣﺴﺎﻟﻪ دارﯾﻢ‪:‬‬

‫‪n = ۳۰,‬‬ ‫‪x = ۷۸۸,‬‬ ‫‪α = ۰٫ ۰۴ =⇒ z۱− α۲ = z۰٫۹۸ = ۲٫ ۵۵‬‬

‫ﺑﺎ اﺳﺘﻔﺎده از ﻧﻮاﺣﯽ ﺑﺤﺮاﻧﯽ ﻣﺸﺨﺺ ﺷﺪه در ﻗﺴﻤﺖ ﺳﻮم در ‪ A‬دارﯾﻢ‪:‬‬


‫‪‬‬ ‫‪‬‬
‫‪x > µ + z α √σ‬‬ ‫‪۷۸۸ ≯ ۸۰۰ + ۲٫ ۵۵ √۴۰ = ۸۱۸٫ ۶۲‬‬
‫‪۰‬‬ ‫‪۱− ۲ n‬‬ ‫‪۳۰‬‬
‫⇒=‬
‫‪x < µ۰ − z۱− α √σ‬‬ ‫‪۷۸۸ ≮ ۸۰۰ − ۲٫ ۵۵ √۴۰ = ۷۸۱٫ ۳۸‬‬
‫‪۲‬‬ ‫‪n‬‬ ‫‪۳۰‬‬

‫و ﺑﻨﺎﺑﺮاﯾﻦ در ﺳﻄﺢ ﻣﻌﻨﯽ داری ‪ ۰٫ ۰۴‬دﻟﯿﻞ ﮐﺎﻓﯽ ﺑﺮای رد ﻓﺮض ‪ H۰‬وﺟﻮد ﻧﺪارد‪.‬‬

‫‪١٠۶‬‬

You might also like