You are on page 1of 41

‫יסודות בסטטיסטיקה‬

‫תורת הקבוצות‪:‬‬

‫קבוצה (‪ -)set‬אוסף מוגדר היטב של פריטים‪.‬‬

‫כל חבר בקבוצה נקרא איבר (‪.)element‬‬ ‫•‬


‫נהוג לסמן את הקבוצה באותיות לועזיות גדולות ואת האיברים באותיות קטנות‪.‬‬ ‫•‬
‫ניתן להגדיר את הקבוצה בשתי דרכים‪:‬‬ ‫•‬
‫‪ o‬רשימה מפורטת של כל האלמנטים }‪A={2,4,6,8‬‬
‫‪ o‬ניסוח כלל המגדיר את האלמנטים השייכים לקבוצה {המספרים הזוגיים בין ‪ 2‬ל‪A=}8-‬‬
‫בכדי לסמן שייכות לקבוצה נשתמש בסימן אפסילון‪.‬‬ ‫•‬
‫‪ 2‬שייך לקבוצה ‪2 ε A - A‬‬
‫‪ 5‬לא שייך לקבוצה ‪5  A – A‬‬

‫יחסים בין קבוצות‪:‬‬

‫שיוויון – שתי הקבוצות מכילות בדיוק את אותם האיברים‪ ,‬לא משנה מה סדר האיברים‪.‬‬ ‫•‬
‫}‪A={1,3,5} B={5,3,3,1‬‬
‫‪A=B‬‬
‫הכלה – קבוצה ‪ B‬היא תת קבוצה של ‪ A‬אם כל איבר של ‪ B‬שייך גם ל‪.A‬‬ ‫•‬
‫‪ A‬או ‪B A‬‬ ‫‪B‬‬
‫}‪A={2,4,6,8‬‬ ‫}‪B={4,6‬‬
‫*כל קבוצה היא תת קבוצה של עצמה‪.‬‬
‫כאשר ‪ B‬הוא תת קבוצה של ‪ A‬אבל אינה שווה ל‪( A‬ב‪ A‬נמצאים איברים נוספים שאינם נמצאים‬
‫ב‪ )B‬נאמר כי ‪ B‬היא תת קבוצה של ממש של ‪.)B A( A‬‬

‫דוגמה‪ :‬רשום‪/‬י את כל היחסים הקיימים (הכלה או שוויון) בין הקבוצות הבאות‪:‬‬


‫}‪C={1,5‬‬ ‫}‪B={1,5‬‬ ‫}‪A={1,5,7‬‬

‫‪B‬‬ ‫‪A‬‬ ‫‪C‬‬ ‫‪A‬‬ ‫‪C‬‬ ‫‪B‬‬


‫‪B‬‬ ‫‪A‬‬ ‫‪C‬‬ ‫‪A‬‬ ‫‪B C‬‬
‫‪B=C‬‬

‫קבוצות מיוחדות‪:‬‬
‫• קבוצה ריקה – קבוצה שלא מכילה אף איבר ומסומנת באות ‪ Ø‬או {}‪.‬‬
‫‪ Ø‬היא תת קבוצה של כל קבוצה אחרת בעולם‪.‬‬

‫אם ‪ A‬היא קבוצת המספרים השליליים הגדולים מחמש אז ‪.A=Ø‬‬

‫עולם התוכן (הקבוצה הכללית ) – קבוצת כל האיברים הרלוונטים לדיון מסויים‪ .‬קבוצה זו‬ ‫•‬
‫מסומנת בד"כ באות ‪ Ω‬או ‪.ω‬‬
‫לדוגמה‪ :‬אנו עוסקים בתוצאות הטלת קוביה אז {‪Ω =}1,2,3,4,5,6‬‬

‫תתי קבוצה לעולם תוכן זה – (‪A=}1{ ,B=}2,4,6{ ,C=}1,3,5} ,D=)6‬‬


‫דיאגרמת ‪ – Venn‬הצגת קבוצות באופן גרפי‪ ,‬כאשר כל קבוצה תסומן במלבן‪ ,‬ותת קבוצות שלה‬
‫יסומנו כאליפסות בתוכן‪.‬‬
‫‪Ω‬‬

‫‪A‬‬
‫‪B‬‬

‫דוגמה‪ :‬הצג בדיאגרמת ‪ Venn‬את הקבוצות הבאות‪:‬‬

‫}מתבגרים בין ‪A=}12-18‬‬


‫{בעלי דיכאון קליני}=‪B‬‬
‫{מבוגרים בעלי דיכאון קליני}=‪C‬‬
‫‪ -Ω‬בני אדם‪/‬אנשים מעל גיל ‪/12‬בעלי חוליות‬

‫‪A‬‬ ‫‪B‬‬

‫‪C‬‬

‫פעולות בין קבוצות‪:‬‬

‫פעולות לוגיות שהתוצאה שלהן הן קבוצות חדשות בתוך עולם התוכן‪.‬‬

‫איחוד – איחוד של קבוצות ‪ A‬ו‪ B‬היא קבוצת האיברים ששייכים לפחות לאחת מקבוצות‬ ‫•‬
‫אלה‪ .‬או ל‪ A‬או ל‪ B‬או לשתיהן‪)A∪B( .‬‬
‫חיתוך – חיתוך של קבוצות ‪ A‬ו‪ B‬הוא קבוצת האיברים ששייכים לשתי הקבוצות ביחד‪ .‬כל‬ ‫•‬
‫האיברים שנמצאים גם ב‪ A‬וגם ב‪.)A∩B( B‬‬
‫אם אין לקבוצות איברים משותפים ‪ A∩B= Ø‬אז נאמר שהקבוצות זרות‪.‬‬
‫**איחוד וחיתוך הן פעולות סימטריות‪.‬‬
‫̅‬
‫משלים – המשלים של קבוצת ‪ A‬היא קבוצת האברים שלא נמצאת ב‪.𝐴 - A‬‬ ‫•‬
‫חיסור – ‪ A-B‬היא קבוצת האיברים שנמצאים ב‪ A‬ולא שייכים ל‪( B‬לא שייכים לקבוצת‬ ‫•‬
‫החיתוך)‪.‬‬

‫מיסודות אלו ניתן להסיק מספר חוקים‪:‬‬

‫‪̅ =Ω↔Ω‬‬
‫‪Ø‬‬ ‫‪̅ =Ø‬‬ ‫̅̅̅̅̅̅̅‬
‫̅𝐵 ∪ ̅𝐴 = 𝐵 ∩ 𝐴‬ ‫חוקי מורגן‪:‬‬

‫‪ΩA ∩ = A‬‬ ‫̅̅̅̅̅̅̅‬


‫̅𝐵 ∩ ̅𝐴 = 𝐵 ∪ 𝐴‬

‫‪A∩Ø=Ø‬‬

‫‪𝐴∪ Ω=Ω‬‬

‫‪𝐴∪ Ø=A‬‬

‫̅𝐵 ∩ 𝐴 = 𝐵 ‪𝐴 −‬‬
‫וקטורים ומטריצות‪:‬‬

‫וקטור (‪– )vector‬‬

‫רשימה מסודרת של מספרים‪.‬‬ ‫•‬


‫סדר המספרים חשוב‪.‬‬ ‫•‬
‫נסמן את מספר האיברים באות ‪ ,n‬את כל אחד מהאיברים באות קטנה ואת הוקטור עצמו באות‬ ‫•‬
‫גדולה‪ .‬המספר מימין ל‪ x‬נקרא אינדקס ומשמעו מקום האיבר בתוך הוקטור‪.‬‬
‫‪5‬‬ ‫‪𝑥1‬‬
‫‪3‬‬ ‫‪𝑥2‬‬
‫⌉ ⌈ = ⌉ ⌈ =‪X‬‬
‫‪0‬‬ ‫‪𝑥3‬‬
‫‪2‬‬ ‫‪𝑥4‬‬

‫סקלאר (‪ – )scalar‬מספר בודד (כלומר לא וקטור)‪.‬‬

‫פעולות על וקטורים‪:‬‬

‫סכום של וקטורים – אם ‪ X‬ו‪ Y‬הם שני וקטורים בעלי אותו מספר איברים אז ‪X+Y‬הוא גם וקטור‬ ‫•‬
‫בעל ‪ n‬איברים שבו האיבר במקום ה‪ i‬הוא ‪.Xi+Yi‬‬

‫‪5‬‬ ‫‪2‬‬ ‫‪5+2‬‬ ‫‪7‬‬


‫‪3‬‬ ‫‪−1‬‬ ‫‪3−1‬‬ ‫‪2‬‬
‫⌈= ‪𝑋 =⌈ ⌉ Y =⌈ ⌉ Z =X+Y‬‬ ‫⌉ ⌈=⌉‬
‫‪0‬‬ ‫‪8‬‬ ‫‪0+8‬‬ ‫‪8‬‬
‫‪2‬‬ ‫‪12‬‬ ‫‪2 + 12‬‬ ‫‪14‬‬

‫‪𝑥1‬‬ ‫‪𝑦1‬‬ ‫‪x1 + y1‬‬


‫‪𝑥2‬‬ ‫‪𝑦2‬‬ ‫‪x2 + y2‬‬
‫⌈=‪𝑋 =⌈ ⌉ Y=⌈ ⌉ Z=X+Y‬‬ ‫⌉‬
‫‪𝑥3‬‬ ‫‪𝑦3‬‬ ‫‪x3 + y3‬‬
‫‪𝑥4‬‬ ‫‪𝑦4‬‬ ‫‪x4 + y4‬‬

‫כפל וקטור בסקלאר – אם ‪ x‬הוא וקטור ו‪ b‬הוא סקלאר אז ‪ bx‬הוא וקטור שבו האיבר במקום ה‪i‬‬ ‫•‬
‫הוא ‪.b*xi‬‬
‫‪5‬‬ ‫‪4∗5‬‬ ‫‪20‬‬
‫‪3‬‬ ‫‪4∗3‬‬ ‫‪12‬‬
‫⌈ = 𝑋𝑏 → ‪𝑋 = ⌈ ⌉ 𝑏 = 4‬‬ ‫⌉ ⌈=⌉‬
‫‪0‬‬ ‫‪4∗0‬‬ ‫‪0‬‬
‫‪2‬‬ ‫‪4∗2‬‬ ‫‪2‬‬

‫‪𝑥1‬‬ ‫‪𝑏 ∗ 𝑥1‬‬


‫‪𝑥2‬‬ ‫‪𝑏 ∗ 𝑥2‬‬
‫⌈ = 𝑋𝑏 ⌉ ⌈ = 𝑋‬ ‫⌉‬
‫‪𝑥3‬‬ ‫‪𝑏 ∗ 𝑥3‬‬
‫‪𝑥4‬‬ ‫‪𝑏 ∗ 𝑥4‬‬

‫מכפלה פנימית (מכפלה סקלארית‪ – ) dot product/‬אם ‪ X‬ו‪ Y‬הם שני וקטורים בעלי אותו מספר‬ ‫•‬
‫איברים ‪ ,n‬אז המכפלה הפנימית שלהם היא לא וקטור אלא סקלאר ששווה לסכום מכפלת‬
‫האברים שלהם‪.‬‬
‫‪X*Y = x1*y1 + x2*y2 + x3*y3 + ….. + xn*yn‬‬
‫‪5‬‬ ‫‪2‬‬
‫‪3‬‬ ‫‪−1‬‬
‫)‪𝑋 = ⌈ ⌉ 𝑌 = ⌈ ⌉ → 𝑋𝑌 = (5 ∗ 2) + (3 ∗ −1) + (0 ∗ 8) + (2 ∗ 12‬‬
‫‪0‬‬ ‫‪8‬‬
‫‪2‬‬ ‫‪12‬‬
‫‪= 10 − 3 + 0 + 24 = 31‬‬
‫סכום האיברים בוקטור – אם ‪ X‬הוא וקטור בעל ‪ n‬איברים ניתן לכתוב את סכום האיברים כך‬ ‫•‬
‫𝑛‬

‫𝑖𝑥 ∑ = 𝑖𝑥 ∑ = 𝑛𝑥 ‪𝑥1 + 𝑥2 + 𝑥3 + ⋯ +‬‬


‫‪𝑖=1‬‬

‫(סכימת כל המספרים מ‪ i‬עד ‪ n‬כאשר ‪).i=1‬‬


‫סכום של וקטור שכל איבריו שווים‪:‬‬ ‫‪o‬‬

‫אם‬
‫‪x 1=x2=x3=…=xi=…=xn=b‬‬
‫אז‬
‫𝑛‬

‫𝑏 ∗ 𝑛 = 𝑏 ‪∑ 𝑥𝑖 = 𝑏 + 𝑏 + 𝑏 + ⋯ +‬‬
‫‪𝑖=1‬‬

‫ובקצרה‬
‫𝑏 ∗ 𝑛 = 𝑏∑‬

‫סכום של מכפלת וקטור בסקלאר‪:‬‬ ‫‪o‬‬


‫אם ‪ X‬הוא וקטור ו‪ b‬הוא סקלאר‬
‫אז ‪ bX‬הוא וקטור‬
‫𝑛‬

‫𝑛𝑥𝑏 ‪∑ 𝑏𝑋 = ∑(𝑏 ∗ 𝑥𝑖) = 𝑏𝑥1 + 𝑏𝑥2 + 𝑏𝑥3 + ⋯ +‬‬


‫‪𝑖=1‬‬
‫ובקצרה‬
‫𝑖𝑥 ∑ 𝑏 = 𝑖𝑥𝑏 ∑‬

‫סכום של וקטור שהוא סכום שני וקטורים‪:‬‬ ‫‪o‬‬


‫אם ‪ X‬ו‪ Y‬הם שני וקטורים בעלי אותו מספר איברים ‪n‬‬
‫אז ‪ Z=X+Y‬הוא גם וקטור שבו כל איבר הוא ‪xi+yi‬‬
‫)𝑌 ‪∑ 𝑍 = ∑(𝑋 +‬‬
‫𝑛‬

‫)𝑖𝑦 ‪= ∑(𝑥𝑖 +‬‬


‫‪𝑖=1‬‬
‫)𝑛𝑦 ‪= (𝑥1 + 𝑦1) + (𝑥2 + 𝑦2) + (𝑥3 + 𝑦3) + ⋯ + (𝑥𝑛 +‬‬
‫)𝑛𝑦 ⋯ ‪= (𝑥1 + 𝑥2 + 𝑥3 + ⋯ 𝑥𝑛) + (𝑦1 + 𝑦2 + 𝑦3 +‬‬
‫𝑛‬ ‫𝑛‬

‫𝑖𝑦 ∑ ‪= ∑ 𝑥𝑖 +‬‬
‫‪𝑖=1‬‬ ‫‪𝑖=1‬‬
‫ובקצרה‬
‫𝑖𝑦 ∑ ‪∑ 𝑥𝑖 + 𝑦𝑖 = ∑ 𝑥𝑖 +‬‬

‫מכפלה פנימית באמצעות סיגמה‪:‬‬


‫𝑛‬

‫)𝑖𝑦 ∗ 𝑖𝑥(∑ = 𝑛𝑦 ∗ 𝑛𝑥 ‪𝑋 ∗ 𝑌 = 𝑥1 ∗ 𝑦1 + 𝑥2 ∗ 𝑦2 + 𝑥3 ∗ 𝑦3 + ⋯ +‬‬


‫‪𝑖=1‬‬
‫מטריצות –‬
‫מטריצה –‬
‫מטריצה היא טבלה ‪.‬‬
‫‪ i‬יסמן את מספר השורה (‪ 1‬עד ‪.)n‬‬
‫‪j‬יסמן את מספר הטור (‪ 1‬עד ‪.)m‬‬
‫כל איבר במטריצה יסומן ‪.xij‬‬
‫‪𝑥11 x12 x1j x1m‬‬ ‫‪n m‬‬
‫‪x21 x22 x2j x2m‬‬
‫[=‪X‬‬ ‫‪] ∑ X = ∑ ∑ xij‬‬
‫‪𝑥𝑖1 xi2 xij xim‬‬
‫‪i=1 j=1‬‬
‫‪xn1 xn2xnj xnm‬‬

‫‪3 17 1 12‬‬
‫‪X = [5 2 7 12] ∑ 𝑋 = 78‬‬
‫‪6 4 9 0‬‬

‫תרגיל לבית‪:‬‬

‫נתונים שני הוקטורים הבאים‪:‬‬

‫]‪Y=[a,2,-2,7] X=[4,5,9,-1‬‬

‫בנוסף‪ ,‬נתון ‪x*y = 29‬‬

‫‪ .1‬מצא את ‪.a‬‬
‫𝑖𝑥 ‪∑ni=1‬‬
‫‪∗ 𝑦𝑖 = (𝑎 ∗ 4) + (2 ∗ 5) + (−2 ∗ 9) + (7 ∗ −1) = 4𝑎 + 10 −‬‬
‫= ‪4a-15=2918 − 7‬‬
‫‪4a=44‬‬
‫‪A=11‬‬
‫‪ .2‬חשבו )𝑦 ‪∑(3𝑥 +‬‬
‫‪∑(3𝑋 + 𝑌) = 3 ∑ 𝑋 + ∑ 𝑌 = (3 ∗ 𝑥1 + 𝑦1) + (3 ∗ 𝑥2 + 𝑦3) + 3 ∗ 𝑥3 +‬‬
‫∗ ‪𝑦3) + (3 ∗ 𝑥4 + 𝑦4) = (3 ∗ 11 + 4) + (3 ∗ 2 + 5) + (3 ∗ −2 + 9) + (3‬‬
‫)‪7 − 1‬‬
‫‪= (33+4)+(6+5)+(-6+9)+(21-1) = 37+11+3+20 = 71‬‬
‫קומבינטוריקה‬

‫קומבינטוריקה עוסקת בספירת מספר האיברים הקיימים בקבוצה‪.‬‬


‫מושגים בקומבינטוריקה‪:‬‬
‫ניסוי – תהליך אקראי‪ .‬מצב או פעולה שיכולה להסתיים במספר אפשרויות‪.‬‬ ‫•‬
‫תולדה – תוצאה אפשרית של ניסוי‪.‬‬ ‫•‬
‫מאורע – קבוצה של תולדות‪( .‬מאורע היא תת קבוצה של עולם התוכן)‪.‬‬ ‫•‬

‫דוגמה ‪:1‬‬
‫מטילים קוביית משחק‪.‬‬

‫תוצאות הניסוי האפשריות של הטלה בודדת הן‪. = }1 ,2 ,3 ,4 ,5 ,6{ :‬‬

‫תוצאות הניסוי של ‪ 2‬הטלות הן‪. = } }1,1{....}5,1{ ,}6,1{...}1,6{....}6,6{ { :‬‬

‫תוצאות הניסוי של ‪ 3‬הטלות הן‪. = } }1,1,1{... }6,6,6{ { :‬‬

‫כמה איברים יש במרחב המדגם בכל אחת מאפשרויות אלה?‬


‫עבור הטלה בודדת יש ‪ 6‬אפשרויות‪.‬‬
‫כשמטילים קובייה פעמיים‪ ,‬יש ‪ 6‬תוצאות אפשריות להטלה הראשונה‪ .‬על כל תוצאה כזו‪ ,‬יש ‪6‬‬
‫תוצאות אפשריות להטלה השנייה‪.‬‬
‫לכן‪ ,‬מספר התוצאות לניסוי כולו הוא ‪.6 X 6 = 36‬‬

‫באותו האופן‪ ,‬מספר התוצאות לניסוי שבו מוטלת קוביה ‪ 3‬פעמים הוא ‪.6 X 6 X 6 = 216‬‬

‫עקרון הכפל – ניסוי מורכב בעל ‪ K‬שלבים ובכל שלב מספר שונה של תולדות אפשריות שיסומן ב‪.n‬‬
‫מספר התולדות האפשרי של הניסוי המורכב‪:‬‬

‫𝒌𝒏 × … × 𝟑𝒏 × 𝟐𝒏 × 𝟏𝒏‬

‫דוגמה ‪:1‬‬
‫משתתף בתוכנית קסמים בטלוויזיה מתבקש להטיל מטבע‪ ,‬אח"כ לשלוף קלף מתוך חפיסת קלפים‬
‫תקנית‪ ,‬להטיל עוד מטבע‪ ,‬ולבסוף לחשוב על מספר מקרי בין ‪ 1‬ל‪.10-‬‬
‫בכמה אפשרויות שונות יכול המשתתף לבצע את המטלה?‬

‫‪2 X 52 X 2 X 10 = 2080‬‬

‫דוגמה ‪:2‬‬
‫מבחן אמריקאי כולל ‪ 20‬שאלות‪ ,‬לכל אחת ‪ 4‬תשובות אפשריות‪.‬‬

‫בכמה דרכים שונות יכול קוף‪ ,‬שאינו יודע לקרוא‪ ,‬לפתור את המבחן?‬

‫‪420‬‬

‫מקרה פרטי של חוק הכפל – כאשר לכל אחד מ‪ K‬הניסויים הפשוטים יש אותו מספר תולדות ‪ n‬אז מספר‬
‫התולדות האפשרי של הניסוי המורכב‪:‬‬
‫𝒌𝒏 = 𝒏 × … × 𝒏 × 𝒏 × 𝒏‬

‫דוגמה ‪:4‬‬
‫כמה תת‪-‬קבוצות ניתן ליצור מקבוצה בת ‪ 2‬איברים? ‪ 3‬איברים?‪ n‬איברים?‬

‫∅ ‪{𝐴} = 𝐴,‬‬

‫∅ ‪{𝐴, 𝐵} = 𝐴, 𝐵, 𝐴𝐵,‬‬

‫∅ ‪{𝐴, 𝐵, 𝐶} = 𝐴, 𝐵, 𝐶, 𝐴𝐵, 𝐴𝐶, 𝐵𝐶, 𝐴𝐵𝐶,‬‬

‫𝑛‪{𝑛} = 2‬‬

‫כל איבר יכול להכנס‪/‬לא להכנס לתת הקבוצה (‪ 2‬אפשרויות) כפול ‪ n‬אברים (‪.)2n‬‬

‫פרמוטציות – מספר הסידורים של קבוצת איברים‪.‬‬

‫דוגמה ‪:1‬‬
‫בכמה דרכים אפשר לסדר ‪ 4‬ילדים בשורה?‬

‫‪4 × 3 × 2 × 1 = 4! = 24‬‬
‫דוגמה ‪:2‬‬
‫בניסוי פסיכולוגי ‪ 4‬חלקים‪ ,‬כל חלק הינו תנאי אחר בניסוי‪ .‬מאחר שהשפעת סדר התנאים על תוצאות‬
‫הניסוי אינה ידועה‪ ,‬החליט החוקר שכל הסדרים האפשריים של תנאים אלה יכללו בניסוי‪ .‬כמה‬
‫סדרים כאלה קיימים?‬

‫‪4 × 3 × 2 × 1 = 4! = 24‬‬

‫מספר הפרמוטציות האפשרי של ‪ n‬איברים ללא החזרה‪:‬‬

‫!𝑛 = ‪𝑛 × (𝑛 − 1) × (𝑛 − 2) × … × 1‬‬

‫בכמה דרכים ניתן לסדר בשורה ‪ 10‬ילדים?‬

‫!‪10‬‬
‫בכמה דרכים ניתן לסדר בשורה ‪ 10‬ילדים‪ ,‬מהם ‪ 6‬בנים ו‪ 4-‬בנות‪ ,‬אם הילדים מכל מין מתעקשים‬
‫לעמוד זה לצד זה?‬

‫‪(6! × 4!) + (4! × 6!) = (6! × 4!) × 2! = (6! × 4!) × 2‬‬


‫בכמה דרכים ניתן לסדר בשורה ‪ 10‬ילדים‪ 4 ,‬מהם עם חולצות אדומות‪ 4 ,‬עם חולצות ירוקות ו‪ 2‬עם‬
‫חולצות כחולות‪ ,‬אםכל קבוצת ילדים בעלי אותו צבע חולצה מתעקשים לעמוד זה לצד זה?‬

‫!‪(4! × 4! × 2!) × 3‬‬


‫סידור של חלק מהאיברים‬

‫במצב של בחירת ‪ k‬איברים מובחנים מתוך ‪ n‬איברים מספר האפשרויות הוא‪:‬‬

‫!𝑛‬
‫!)𝑘 ‪(𝑛 −‬‬

‫דוגמה ‪:1‬‬
‫בכיתה ‪ 30‬תלמידים‪ .‬בכמה דרכים ניתן לבחור מתוכם ועד‪ ,‬שכולל יו"ר‪ ,‬סגן‪ ,‬וגזבר?‬

‫פתרון‪:‬‬
‫דרך א'‪:‬‬
‫יש ‪ 30‬אפשרויות לבחור את היו"ר ← לאחר שזה נבחר‪ ,‬נותרו ‪ 29‬אפשרויות לבחור את הסגן← לבסוף‪,‬‬
‫נותרו ‪ 28‬אפשרויות לבחירת הגזבר‪.‬‬

‫לפי עקרון הכפל‪ ,‬מספר האפשרויות הוא ‪. 30 × 29 × 28 = 24,360‬‬


‫דרך ב'‪:‬‬
‫נסדר את כל תלמידי הכיתה בשורה‪ .‬הראשון יהיה היו"ר‪ ,‬השני יהיה הסגן והשלישי גזבר‪ .‬שאר‬
‫הסידור של ‪ 27‬תלמידי הכיתה הנותרים לא משנה‪ .‬לכן‪ ,‬נרצה "לא לספור" אותו‪.‬ניקח את מספר‬
‫הסידורים בסך הכל ונחלק במספר הסידורים הפנימיים של הקבוצה שלא בחרנו (שאר ‪ 27‬התלמידים)‪.‬‬
‫!‪30‬‬
‫‪= 30 × 29 × 28 = 24,360‬‬
‫!‪27‬‬
‫דוגמה ‪:2‬‬
‫יש לסדר על מדף ‪ 5‬ספרים‪ ,‬מהם אחד אדום‪ ,‬אחד כחול‪ ,‬ושלושה צהובים‪ .‬בכמה דרכים ניתן לעשות‬
‫זאת?‬

‫אילו כל הספרים היו מובחנים זה מזה (לכל אחד היה צבע שונה) היו ‪ 5! = 120‬אפשרויות‪ .‬במצב שבו‬
‫חלק מהאיברים לא מובחנים‪ ,‬יש לחלק את סך כל האפשרויות במספר הסידורים הפנימיים של‬
‫הקבוצה הלא מובחנת‪ ,‬כלומר !‪. 3‬‬
‫!‪5‬‬ ‫‪5×4×3×2×1‬‬
‫!‪3‬‬
‫=‬ ‫‪3×2×1‬‬
‫לכן‪ ,‬מספר הסידורים הוא ‪= 5 × 4 = 20‬‬

‫דוגמה ‪:3‬‬
‫בכיתה ‪ 30‬תלמידים‪ .‬בכמה דרכים ניתן לבחור מתוכם ועד של ‪ 3‬תלמידים?‬
‫כאן‪ ,‬בניגוד למצב הקודם‪ ,‬גם האיברים שנבחרים אינם מובחנים‪ .‬לכן‪ ,‬נחלק את מספר הסידורים‬
‫הכללי גם במספר הסידורים הפנימיים של הקבוצה הנבחרת‪ .‬במקרה זה‪ ,‬מספר האפשרויות הוא‪:‬‬
‫!‪30‬‬ ‫‪30×29×28‬‬ ‫‪24,360‬‬
‫= !‪. 27!×3‬‬ ‫!‪3‬‬
‫=‬ ‫‪6‬‬
‫‪= 4,060‬‬
‫קומבינציות‪:‬‬

‫מספר האפשרויות לבחור (לא לסדר) ‪ K‬איברים מתוך ‪ n‬איברים‪( .‬בניגוד לפרמוטציות‪ ,‬האברים בקבוצה‬
‫הנבחרת אינם מובחנים זה מזה ‪ -‬סדר הבחירה לא חשוב)‪.‬‬

‫𝑛‬ ‫!𝑛‬
‫=) (‬
‫𝑘‬ ‫!𝑘 × !)𝑘 ‪(𝑛 −‬‬

‫דוגמה‪: 1‬‬

‫‪12‬נבדקים השתתפו בניסוי זיכרון שבו למדו רשימה של ‪ 50‬מילים‪ ,‬ולאחר חצי שעה התבקשו‬
‫לאחזר את המילים מהזיכרון‪ .‬שנה לאחר הניסוי‪ ,‬הוחלט לדגום ‪ 5‬מבין הנבדקים ולבקש מהם‬
‫לאחזר שוב את המילים‪ ,‬כדי לבדוק מהם מאפייני הזיכרון שנה לאחר הלמידה‪ .‬בכמה דרכים ניתן‬
‫לבצע את הדגימה?‬

‫פתרון‪:‬‬

‫‪12‬‬ ‫!‪12‬‬
‫=) (‬ ‫‪= 792‬‬
‫‪5‬‬ ‫!‪(12 − 5)! ∙ 5‬‬

‫שלבים בפתרון שאלה‪:‬‬

‫עם‪/‬ללא החזרה‪.‬‬ ‫•‬


‫האם סדר הבחירה חשוב‪/‬האם הפריטים מובחנים או לא‪.‬‬ ‫•‬

‫תרגילים נוספים‪:‬‬

‫‪ .1‬כמה מספרים בני ‪ 6‬ספרות‪ ,‬המורכבים מהספרות ‪ 2,3,9‬מתחלקים ב‪?2‬‬


‫‪5‬‬
‫‪3 × 1 = 243‬‬

‫‪ .2‬בכמה דרכים ניתן לחלק ‪ n‬גברים ו‪ n-‬נשים לזוגות מעורבים (גבר ואישה)?‬
‫!𝑛‬
‫נעמיד את הנשים בשורה נתונה וביחס אליה נסדר את שורת הגברים‪ ,‬כל סידור של שורת‬
‫הגברים ייצור לנו שילוב זוגות אחר‪.‬‬
‫‪ .3‬בכמה מספרים ‪ 10‬ספרתיים אין ספרות צמודות זהות?‬
‫‪910‬‬
‫‪ .4‬בכמה דרכים שונות ניתן לסדר ‪ n‬אנשים במעגל?‬
‫!)‪(𝑛 − 1‬‬

‫‪ .5‬לרמי יש‪:‬‬
‫שלושה פוסטרים זהים של 'היהודים'‪,‬‬
‫פוסטר אחד של 'נקמת הטרקטור'‪,‬‬
‫פוסטר אחד של 'פונץ'‬
‫ופוסטר אחד של 'רוקפור'‪.‬‬
‫רמי החליט להתאים את עיצוב החדר שלו לשנות ה‪ 2000-‬ולחלק את הפוסטרים שלו בין‬
‫חבריו לכיתה‪ ,‬כך שלכל חבר יהיה לכל היותר פוסטר אחד‪ .‬בכיתה של רמי יש ‪ 10‬ילדים‪.‬‬
‫כמה אפשרויות חלוקה יש לרמי?‬

‫‪10‬‬ ‫!‪10‬‬
‫=) (‬
‫‪6‬‬ ‫!‪4! 3‬‬
‫הסתברות‪:‬‬

‫ההסתברות של מאורע מסוים היא הסיכוי שמאורע זה יתרחש (ההסתברות של ‪ A‬היא פונקציה של מאורע‬
‫‪ )A‬הנעה במספר בין ‪ 0‬ל‪ 1‬כולל‪ .‬נסמן הסתברות באות ‪.P‬‬

‫פונקציית הסתברות‪:‬‬

‫מקיימת את אקסיומות ההסתברות‪:‬‬

‫‪ 𝑃(𝐴) ≥ 0‬לכל מאורע ‪A‬‬ ‫•‬


‫‪𝑃(𝛺) = 1‬‬ ‫•‬
‫אם ‪ A‬ו‪ B-‬מאורעות זרים‪ ,‬אזי )𝐵(𝑃 ‪𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) +‬‬ ‫•‬

‫חוקים נוספים‪:‬‬

‫)𝐴(𝑃 ‪̅ ) = 1 −‬‬
‫𝑨(𝑃‬ ‫•‬
‫‪𝑃(∅) = 0‬‬ ‫•‬
‫המשלים לעולם התוכן הוא קבוצה ריקה‪ .‬אם ההסתברות של עולם התוכן הוא ‪ 1‬הרי‬
‫שההסתברות לקבוצה ריקה המשלימה שלו יהיה ‪.0‬‬
‫אם 𝐵 ⊆ 𝐴 ‪ ,‬אז )𝐵(𝑃 ≤ )𝐴(𝑃‬ ‫•‬
‫‪𝑃(𝐴) ≤ 1‬‬ ‫•‬
‫‪ A‬היא תת קבוצה של עולם התוכן ולכן תהיה קטנה או שווה ל‪ 1‬אך לא גדולה מ‪.1‬‬
‫)𝐵 ∩ 𝐴(𝑃 ‪𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) −‬‬ ‫•‬

‫גישה שכיחותנית (‪ – )frequentist‬הסתברות כשכיחות יחסית‪ .‬שכיחות המאורע היא מספר הפעמים‬
‫שמאורע זה התרחש‪.‬‬

‫מרחב הסתברות סימטרי (מרחב בעל הסתברות אחידה) – לכל אחד מהתולדות במרחב המדגם‬ ‫•‬
‫יש הסתברות שווה‪ .‬ההסתברות של מאורע ‪ A‬שווה למספר התולדות במאורע זה‪ ,‬לחלק למספר‬
‫התולדות הכללי‪.‬‬
‫)𝐴(𝑛‬
‫)𝛺(𝑛 = 𝑃‬

‫הסתברות סובייקטיבית – הסתברות כאמונה‪ .‬אירוע חד פעמי שאליו מייחסים הסתברות המבטאת את‬
‫מידת האמונה באירוע שיתקיים‪.‬‬
‫דוגמה ‪:1‬‬

‫מחלות מעיים ו"מחלת גבהים" הן שתיים מהבעיות הרפואיות הנפוצות ביותר של ישראלים‬
‫שמטיילים בצפון הודו‪ .‬נניח שבקרב אוכלוסייה זו‪ ,‬ההסתברות ללקות במחלת מעיים היא‬
‫‪ ,0.5‬וההסתברות ללקות במחלת גבהים היא ‪ .0.3‬כמו כן‪ ,‬ההסתברות שלמטייל‪/‬ת יהיו גם‬
‫מחלות מעיים וגם מחלת גבהים היא ‪.0.2‬‬

‫מה ההסתברות ללקות לפחות באחת המחלות?‬

‫נסמן‪{ :‬מחלת גבהים}=‪{ ,B‬מחלות מעיים}=‪.A‬‬

‫‪P(A)=0.5‬‬ ‫‪P(B)=0.3‬‬ ‫‪P(AB)=0.2‬‬

‫‪P(A-B)=0.3‬‬ ‫‪P(B-A)=0.1‬‬

‫‪P(A+B)=P(A)+P(B)+P(AB)=0.5+0.3-0.2=0.6‬‬

‫דוגמה ‪:2‬‬

‫ההסתברות שסטודנט לפסיכולוגיה טייל במזרח הרחוק לפני לימודיו היא ‪ .45%‬ההסתברות‬
‫שסטודנט לפסיכולוגיה רוצה להתקבל למגמה הקלינית היא ‪ .70%‬מה ההסתברות שאדם‪,‬‬
‫שנדגם אקראית מבין הסטודנטים לפסיכולוגיה‪ ,‬טייל במזרח או רוצה להיות קלינאי?‬

‫‪ P(A)=0.45‬טייל במזרח‬
‫‪ P(B)=0.70‬רוצה להיות קלינאי‬
‫)‪ P(AB‬לא ניתן לדעת באופן מדויק אלא רק טווח (בין ‪ 0.15‬ל‪)0.45‬‬

‫)‪P(AB)=P(A)-P(B)-P(AB‬‬

‫לא ניתן לחשב את ההסתברות הכוללת משום שלא ניתן לדעת את הסתברות החיתוך‪.‬‬
‫הסתברות מותנית – ההסתברות של תנאי מסוים (‪ )A‬בתנאי שמאורע אחר (‪ )B‬התרחש‪.‬‬
‫מספר האיברים במאורע לחלק למספר האיברים בעולם התוכן = ההסתברות למאורע‪( .‬לכן מספר‬
‫האיברים בחיתוך חלקי מספר האיברים של ‪ B‬שווה להסתברות של החיתוך חלקי ההסתברות ל‪.)B‬‬

‫)𝐵 ∩ 𝐴(𝑃 )𝐵 ∩ 𝐴(𝑛‬


‫= )𝐵|𝐴(𝑃‬ ‫=‬
‫)𝐵(𝑛‬ ‫)𝐵(𝑃‬

‫)𝐴|𝐵(𝑃 ≠ )𝐵|𝐴(𝑃‬

‫)𝐵 ∩ 𝐴(𝑃 )𝐵 ∩ 𝐴(𝑃‬


‫≠‬
‫)𝐵(𝑃‬ ‫)𝐴(𝑃‬

‫דוגמה ‪:1‬‬

‫בכיתה ‪ 40‬תלמידים המתפלגים באופן הבא‪:‬‬

‫סה"כ‬ ‫שמאליים ‪L‬‬ ‫ימניים ‪R‬‬


‫‪16‬‬ ‫‪6‬‬ ‫‪10‬‬ ‫בנים ‪B‬‬
‫‪24‬‬ ‫‪8‬‬ ‫‪16‬‬ ‫בנות ‪G‬‬
‫‪40‬‬ ‫‪14‬‬ ‫‪26‬‬ ‫סה"כ‬

‫א‪ .‬בוחרים ילד‪/‬ה באופן מקרי‪ .‬מה ההסתברות שדגמנו מישהו ימני?‬

‫‪𝑛(𝑅) 26‬‬
‫= )𝐴(𝑃‬ ‫‪= = .65‬‬
‫‪𝑛(𝛺) 40‬‬

‫ב‪ .‬בוחרים ילד‪/‬ה באופן מקרי‪ .‬מה ההסתברות שדגמנו ילדה ימנית?‬

‫‪𝑛(𝑅 ∩ 𝐺) 16‬‬
‫= )𝐴(𝑃‬ ‫‪= = .4‬‬
‫)𝛺(𝑛‬ ‫‪40‬‬

‫מה ההסתברות שילדה שנדגמה היא שמאלית? (הסתברות מותנית)‬ ‫ג‪.‬‬

‫)𝐺 ∩ 𝐿(𝑛‬ ‫‪8‬‬


‫= )𝐴(𝑃‬ ‫‪= = .33‬‬
‫)𝐺(𝑛‬ ‫‪24‬‬

‫ד‪ .‬מה ההסתברות ששמאלי‪/‬ת שנדגם‪/‬ה היא בת? (הסתברות מותנית)‬

‫)𝐺 ∩ 𝐿(𝑛‬ ‫‪8‬‬


‫= )𝐴(𝑃‬ ‫‪= = .57‬‬
‫)𝐿(𝑛‬ ‫‪14‬‬
‫הסתברות מותנית‬

‫)𝐵 ∩ 𝐴(𝑃‬
‫= )𝐵|𝐴(𝑃‬
‫)𝐵(𝑃‬
‫חוק הכפל –‬

‫)𝐵(𝑃 × )𝐵|𝐴(𝑃 = )𝐵 ∩ 𝐴(𝑃‬

‫דוגמה ‪:1‬‬

‫כד מכיל ‪ 8‬כדורים אדומים ו‪ 4-‬כדורים לבנים‪ .‬מוציאים מהכד שני כדורים ללא החזרה‪ .‬אם נניח‬
‫שבכל הוצאה יש לכל הכדורים שבכד סיכויים שווים להיבחר‪ ,‬מהי ההסתברות ששני הכדורים‬
‫שהוצאו הם אדומים?‬

‫הכדור הראשון יצא אדום ‪R1 -‬‬

‫הכדור השני יצא אדום ‪R2 -‬‬

‫‪8‬‬
‫= ) ‪P(R1‬‬
‫‪12‬‬
‫‪7‬‬
‫= ) ‪P(R 2 |𝑅1‬‬
‫‪11‬‬
‫‪7‬‬ ‫‪8‬‬
‫= ) ‪P(R1 ∩ R 2 ) = P(R 2|𝑅1 ) × P(R1‬‬ ‫×‬
‫‪11‬‬ ‫‪12‬‬

‫נוסחת ההסתברות השלמה –‬

‫אם ‪ A1,A2,A3,…An‬הם מאורעות זרים שאיחודם הוא כל מרחב המדגם‪ .‬מאורע ‪ B‬הנמצא באותו מרחב‬
‫מדגם‬
‫הוא בהכרח בעל חיתוכים עם לפחות חלק ממאורעות ‪ .A‬ניתן לפרק את מאורע‬
‫‪ B‬לאיחוד המאורעות הזרים‪.‬‬

‫לפי חוק החיבור‪:‬‬

‫) 𝑛𝐴 ∩ 𝐵(𝑃 ‪𝑃(𝐵) = 𝑃(𝐵 ∩ 𝐴1 ) + 𝑃(𝐵 ∩ 𝐴2 ) + ⋯ +‬‬

‫לפי חוק הכפל‪:‬‬

‫) 𝑛𝐴(𝑃 ∙ ) 𝑛𝐴|𝐵(𝑃 ‪𝑃(𝐵) = 𝑃(𝐵|𝐴1 ) ∙ 𝑃(𝐴1 ) + 𝑃(𝐵|𝐴2 ) ∙ 𝑃(𝐴2 ) + ⋯ +‬‬

‫*ניתן לפתור את נוסחת ההסתברות השלמה באמצעות עץ הסתברויות‪.‬‬


‫דוגמה ‪:2‬‬

‫מתוך סטטיסטיקה של תיקי משטרה רבים מעריכים שחוקר באמצעות מכונת אמת (פוליגרף) מגלה‬
‫שקרן בסיכוי של ‪ 80%‬ומזהה דובר אמת בסיכוי של ‪ .90%‬מעריכים גם כי ‪ 70%‬מהאנשים המובאים‬
‫לבדיקה במכונה הם שקרנים‪.‬‬

‫מה ההסתברות שכתוצאה מהבדיקה יוכרז נחקר כדובר אמת?‬

‫‪)= .14 + .27 - .41‬דובר אמת∩ "דובר אמת"(‪) + P‬שקרן∩ "דובר אמת"(‪")= P‬דובר אמת"(‪P‬‬

‫חוק ‪:Bayes‬‬
‫לפי נוסחת ההגדרה של ההסתברות המותנית‬
‫)𝐵∩𝐴(𝑃‬
‫= )𝐵|𝐴(𝑃‬ ‫)𝐵(𝑃‬

‫בנוסף‪,‬‬

‫)𝐴(𝑃 ∙ )𝐴‪𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐵/‬‬

‫נציב במונה‪ ,‬ונקבל‪:‬‬

‫)𝐴(𝑃 ∙ )𝐴‪𝑃(𝐵/‬‬
‫= )𝐵|𝐴(𝑃‬
‫)𝐵(𝑃‬

‫הסתברות אפריורית – ההסתברות שמאורע ‪ A‬יתרחש‪.‬‬


‫הסתברות פוסטריורית – ההסתברות שמאורע ‪ A‬יתרחש לאחר שמאורע ‪ B‬יתרחש‪.‬‬

‫כדי לחשב הסתברות פוסטריורית‪ ,‬יש לקחת בחשבון את ההסתברות האפריורית‪.‬‬


‫מאורעות בלתי תלויים‪:‬‬
‫קיום שני מאורעות שתוצאה באחד מהם אינה משפיעה על הסיכוי לתוצאה כלשהי במאורע השני‪.‬‬

‫מאורע ‪ A‬בלתי תלוי במאורע ‪ B‬אם )𝐴(𝑃 = )𝐵|𝐴(𝑃 (כלומר מאורע ‪ B‬אינו משפיע)‬
‫)𝐵∩𝐴(𝑃‬ ‫)𝐵∩𝐴(𝑃‬
‫‪.‬‬ ‫= )𝐵|𝐴(𝑃 ונקבל )𝐴(𝑃 =‬ ‫נציב‬
‫)𝐵(𝑃‬ ‫)𝐵(𝑃‬

‫כלומר‪ ,‬מאורע ‪ A‬בלתי תלוי במאורע ‪ B‬אם מתקיים‪:‬‬

‫)𝑩(𝑷 ∙ )𝑨(𝑷 = )𝑩 ∩ 𝑨(𝑷‬


‫לכן‪ ,‬כדי להחליט האם שני מאורעות תלויים זה בזה‪ ,‬יש לבדוק האם שוויון זה מתקיים‪.‬‬

‫אי תלות היא סימטרית‪ .‬כלומר אם ‪ A‬בלתי תלוי ב‪ ,B‬אז גם ‪ B‬בלתי תלוי ב‪.A‬‬ ‫‪-‬‬
‫מאורע שהוא קבוצה ריקה הינו בלתי תלוי בכל מאורע אחר‪.‬‬ ‫‪-‬‬
‫(מאחר והמאורע הוא קבוצה ריקה‪ ,‬שני אגפי האי שיווין שווים ל‪ 0‬והוא מתקיים – לכן‬
‫המאורע הריק יהיה בלתי תלוי לכל מאורע אחר)‪.‬‬
‫מאורעות זרים הינם תמיד תלויים‪.‬‬ ‫‪-‬‬
‫(החיתוך שלהם הוא קבוצה ריקה וההסתברות של החיתוך יהיה ‪ ,0‬אם כל אחת‬
‫מהקבוצות גדולה מ‪ 0‬המכפלה שלהם תהיה גדולה מ‪ 0‬כלומר לא שווה להסתברות‬
‫החיתוך)‪.‬‬

‫דוגמה ‪:3‬‬

‫רופא טוען‪ ,‬כי ‪ 30%‬מהחולים המגיעים למרפאתו מתלוננים על כאב ראש‪ .‬בקרב ‪ 40%‬מהחולים‬
‫המגיעים למרפאה הוא מאבחן חרדה‪ .‬כמו כן‪ 15% ,‬מהחולים המגיעים למרפאה מתלוננים על כאב‬
‫ראש‪ ,‬אבל אינם בעלי חרדה‪.‬‬

‫האם יש תלות בין כאב ראש לבין חרדה?‬

‫סה"כ‬ ‫̅𝐵 לא חרדה‬ ‫‪ B‬חרדה‬


‫‪0.3‬‬ ‫‪0.15‬‬ ‫‪0.15‬‬ ‫‪ A‬כאב ראש‬
‫‪0.7‬‬ ‫‪0.45‬‬ ‫̅𝐴 לא כאב ראש ‪0.25‬‬
‫‪1‬‬ ‫‪0.6‬‬ ‫‪0.4‬‬ ‫סה"כ‬

‫‪P(A ∩ B) = 0.15‬‬

‫‪P(A) ∙ P(B) = 0.3 × 0.4 = 0.12‬‬

‫)𝐵(𝑃 ∙ )𝐴(𝑃 ≠ )𝐵 ∩ 𝐴(𝑃‬


‫החיתוך של ‪( A‬כאב ראש) ו‪(B‬חרדה) אינו שווה לכפולה של הסיכוי ל‪ A‬בסיכוי ל‪ B‬ולכן המאורעות‬
‫תלויים זה בזה‪.‬‬

‫נניח והיו נתונים רק‪ . 𝑃(𝐴) = .4, 𝑃(𝐵) = .3:‬כיצד הייתה נראית הטבלה במצב של אי‪-‬תלות?‬

‫סה"כ‬ ‫̅𝐵 לא חרדה‬ ‫‪ B‬חרדה‬


‫‪0.3‬‬ ‫‪0.18‬‬ ‫‪0.12‬‬ ‫‪ A‬כאב ראש‬
‫‪0.7‬‬ ‫‪0.42‬‬ ‫̅𝐴 לא כאב ראש ‪0.28‬‬
‫‪1‬‬ ‫‪0.6‬‬ ‫‪0.4‬‬ ‫סה"כ‬
‫משתנה מקרי‬

‫משתנה מקרי הוא פונקציה המוגדרת על מרחב המדגם‪ ,‬כך שלכל תוצאה במדגם מתאים ערך מספרי‬
‫כלשהו‪.‬‬

‫נסמן משתנים מקריים באותיות גדולות (…‪ )X,Y,‬ואת ערכי המשתנים המקריים באותיות קטנות (…‪.)x,y,‬‬

‫דוגמה ‪:1‬‬

‫נניח שהניסוי הוא הטלת ‪ 3‬קוביות‪ ,‬והמשתנה המקרי (מ"מ) הוא סכום התוצאות‪.‬‬

‫במקרה זה‪ ,‬הערכים האפשריים שיכול לקבל המשתנה המקרי הם כל המספרים השלמים‬
‫בין ‪ 3‬ל‪ ,18-‬סה"כ ‪ 16‬ערכים אפשריים‪.‬‬

‫דוגמה ‪:2‬‬

‫נניח שהניסוי הוא הטלת מטבע מספר רב של פעמים‪ ,‬והמשתנה המקרי הוא מספר הפעמים‬
‫שהתקבלה התוצאה "עץ" לפני שהתקבלה התוצאה "פלי" בפעם הראשונה‪.‬‬

‫במקרה זה‪ ,‬הערכים האפשריים שיכול לקבל המ"מ הם כל המספרים השלמים בין ‪ 0‬ל‪.∞-‬‬

‫דוגמה ‪:3‬‬

‫נניח שהניסוי הוא השתתפות במשחק רולטה‪ ,‬שבו משלמים ‪ ₪ 100‬כדי להשתתף במשחק‪,‬‬
‫ואפשר לזכות ב‪ ₪ 1000-‬או להפסיד‪ .‬המשתנה המקרי הוא הרווח של המהמר‪.‬‬

‫במקרה זה‪ ,‬הערכים האפשריים של המ"מ הם (‪ )-100‬ו‪.900 -‬‬


‫מאחר והערכים של המשתנה המקרי נקבעים על ידי תוצאות ניסוי מקרי‪ ,‬ניתן לייחס הסתברות לכל ערך‬
‫אפשרי של המשנה המקרי‪.‬‬

‫דוגמה ‪:1‬‬

‫נניח שהניסוי הוא הטלת קובייה ‪ 3‬פעמים‪ ,‬והמשתנה המקרי 𝑋 הוא מספר הפעמים‬
‫שהתקבלה התוצאה "‪ ."1‬מהם הערכים האפשריים של המשתנה‪ ,‬ומהי ההסתברות לכל‬
‫אחד מהם?‬

‫הערכים האפשריים למשתנה הם ‪.0,1,2,3 -‬‬

‫(הטלות של קוביות הן בלתי תלויות אחת בשנייה ולכן הסתברות החיתוך הן מכפלה של‬
‫ההסתברויות הפשוטות)‬

‫‪5 5 5 125‬‬
‫= )‪𝑃(𝑋 = 0‬‬ ‫= ∙ ∙‬ ‫‪= .579‬‬
‫‪6 6 6 216‬‬
‫‪1 5 5 5 1 5 5 5 1‬‬ ‫‪25‬‬ ‫‪75‬‬
‫= )‪𝑃(𝑋 = 1‬‬ ‫∙‪∙ ∙ + ∙ ∙ + ∙ ∙ =3‬‬ ‫=‬ ‫‪= .347‬‬
‫‪6 6 6 6 6 6 6 6 6‬‬ ‫‪216 216‬‬
‫‪1 1 5 1 5 1 5 1 1‬‬ ‫‪5‬‬ ‫‪15‬‬
‫= )‪𝑃(𝑋 = 2‬‬ ‫∙‪∙ ∙ + ∙ ∙ + ∙ ∙ =3‬‬ ‫=‬ ‫‪= .069‬‬
‫‪6 6 6 6 6 6 6 6 6‬‬ ‫‪216 216‬‬
‫‪1 1 1‬‬ ‫‪1‬‬
‫= )‪𝑃(𝑋 = 3‬‬ ‫= ∙ ∙‬ ‫‪= .005‬‬
‫‪6 6 6 216‬‬

‫← שלושת ההסתברויות האלו משלימות ל‪ – 1‬משום שהן ממצות את עולם התוכן וזרות‬
‫אחת לשנייה‪.‬‬
‫משתנה מקרי בדיד‪:‬‬
‫משתנה מקרי בדיד – משתנים מקריים בעלי מספר סופי (או בן‪-‬מניה – מספר אינסופי של מספרים שלמים)‬
‫של איברים‪.‬‬

‫משתנה מקרי רציף – משתנים מקריים בעלי אינסוף ערכים אפשריים‪( .‬לרוב משתנים פיזיקליים)‪.‬‬

‫כל משתנה מקרי שערכיו נמדדים אמפירית הינו בדיד באופן מעשי‪ .‬אולם פעמים רבות נרצה להתייחס‬
‫אליו כאל משתנה מקרי רציף‪.‬‬

‫פונקציית מסת הסתברות (‪ – )PMF – Probability Mass Function‬פונקציה המייחסת הסתברות לערכים‬
‫של משתנה מקרי בדיד‪.‬‬

‫דוגמה ‪:1‬‬

‫עבור דוגמת שלושת הקוביות‪ ,‬פונקציה מסת ההסתברות מוגדרת –‬

‫‪. 579‬‬ ‫‪𝑋=0‬‬


‫‪. 347‬‬ ‫‪𝑋=1‬‬
‫‪(𝑋) = . 069‬‬ ‫‪𝑋=2‬‬
‫‪. 005‬‬ ‫‪𝑋=3‬‬
‫‪{ 0‬‬ ‫𝑒𝑠𝑖𝑤𝑟𝑒‪𝑂𝑡ℎ‬‬

‫פונקציית ההתפלגות המצטברת (‪ – )CDF – Cumulative Distribution Function‬המתארת עבור כל ערך‬


‫של המשתנה המקרי‪ ,‬את ההסתברות עד לערך זה כולל‪ .‬נסמן ב‪.)Frequency( F‬‬

‫דוגמה ‪:1‬‬

‫עבור דוגמת שלושת הקוביות‪ ,‬פונקציית ההתפלגות המצטברת מוגדרת –‬

‫‪0‬‬ ‫𝑋‬ ‫‪<0‬‬


‫‪. 579‬‬ ‫𝑋‬ ‫‪=0‬‬
‫‪𝐹(𝑋) = . 926‬‬ ‫𝑋‬ ‫‪=1‬‬
‫‪. 995‬‬ ‫𝑋‬ ‫‪=2‬‬
‫‪{ 1‬‬ ‫𝑋‬ ‫‪=3‬‬
‫תוחלת (‪:)Expected value; Expectancy‬‬
‫תוחלת של משתנה מקרי (או המומנט הראשון של המשתנה המקרי) היא ממוצע משוקלל (תוצאה ממוצעת‬
‫של אינסוף מקרים) של ערכי המשתנה‪ ,‬כאשר המשקל שניתן לכל ערך הוא ההסתברות לקבל אותו‪.‬‬

‫התוחלת של משתנה מקרי ‪ X‬מסומנת ]‪ E[X‬או באות 𝜇 ומוגדרת על ידי הסכום (סיגמה) של כל אחד‬
‫מהערכים כפול ההסתברות שלו‪ .‬בכך נתחשב גם בערכים וגם בהסתברות שלהם (הבדלה בין הסתברויות‬
‫שונות לערכים שונים)‪.‬‬

‫)𝑥(𝑃 ∙ 𝑥 ∑ = ]𝑋[𝐸‬
‫𝑥‬

‫דוגמה ‪:1‬‬

‫עבור דוגמת שלושת הקוביות‪ ,‬תוחלת המשתנה –‬

‫‪. 579‬‬ ‫‪𝑋=0‬‬


‫‪. 347‬‬ ‫‪𝑋=1‬‬
‫‪(𝑋) = . 069‬‬ ‫‪𝑋=2‬‬
‫‪. 005‬‬ ‫‪𝑋=3‬‬
‫‪{ 0‬‬ ‫𝑒𝑠𝑖𝑤𝑟𝑒‪𝑂𝑡ℎ‬‬

‫𝟓 ‪𝐸[𝑋] = ∑ 𝑥 ∙ 𝑃(𝑥) = 0 ∙ 0.579 + 1 ∙ 0.347 + 2 ∙ 0.069 + 3 ∙ 0.005 =.‬‬


‫𝑥‬

‫ניתן להשתמש בחישוב התוחלת כדי להסיק לגבי רווח או הפסד‪.‬‬

‫דוגמה ‪:2‬‬

‫מהמר משתתף במשחק קלפים המוגדר באופן הבא‪ .‬מוציאים קלף מקרי מחפיסת קלפים תקנית‪ .‬אם‬
‫יצא קלף של "תמונה" (נסיך‪ ,‬מלכה או מלך)‪ ,‬המהמר מקבל ‪ .₪ 10‬אם יצא קלף של מספר‪ ,‬הוא‬
‫משלם ‪ .₪ 2.5‬האם כדאי למהמר להשתתף במשחק?‬

‫היא מה תוחלת הרווח של המהמר‪ .‬כלומר‪ ,‬מה יהיה ממוצע הרווח שלו בכל משחק‪ ,‬אילו היה משחק‬
‫מספר רב של פעמים‪.‬‬

‫נגדיר ‪ = X‬הרווח במשחק‪.‬‬


‫‪12‬‬ ‫‪3‬‬
‫= )‪𝑃(𝑋 = 10‬‬ ‫=‬
‫‪52‬‬ ‫‪13‬‬

‫הסיכוי לרווח של ‪ ₪ 10‬הוא הסיכוי לקבל אחד משלושת קלפי התמונה כפול ארבע‬
‫(תלתן‪/‬עלה‪/‬יהלום‪/‬לב) לחלק למספר הקלפים בחפיסה‪.‬‬

‫‪40 10‬‬
‫= )‪𝑃(𝑋 = −2.5‬‬ ‫=‬
‫‪52 13‬‬
‫הסיכוי לרווח של ‪"( ₪ 2.5-‬הפסד") הוא הסיכוי לקבל אחד מעשרת הקלפים הנותרים כפול ארבע‬
‫(תלתן‪/‬עלה‪/‬יהלום‪/‬לב) לחלק למספר הקלפים בחפיסה‪.‬‬

‫‪3‬‬ ‫‪10‬‬ ‫‪5‬‬


‫∙ ‪𝐸[𝑋] = ∑ 𝑥 ∙ 𝑃(𝑥) = 10‬‬ ‫∙ ‪− 2.5‬‬ ‫=‬
‫‪13‬‬ ‫‪13 13‬‬
‫𝑥‬

‫התוחלת שווה לסכום של כל אחד המערכים (‪ )+10/-2.5‬כפול ההסתברות שלו‪ .‬תוחלת הרווח‬
‫חיובית‪ ,‬ולכן כדאי למהמר להשתתף במשחק‪.‬‬
‫חוקי התוחלת‪:‬‬
‫תוחלת של קבוע –‬
‫אם 𝑘 הוא קבוע (משתנה מקרי שיש לו רק תולדה אחת אפשרית שהיא ‪ )1 = 100%‬אז 𝑘 = ]𝑘[𝐸 ‪.‬‬

‫הוכחה‪ :‬במקרה זה ‪ ,𝑃(𝑘) = 1‬ואז 𝑘 = )𝑘(𝑃 ∙ 𝑘 = ]𝑘[𝐸‪.‬‬

‫דוגמה ‪:1‬‬
‫כדי להשתתף במשחק‪ ,‬כל משתתף משלם שני דולר‪ .‬מה תוחלת הרווח במשחק זה?‬

‫‪𝐸[𝑋 = −2] = −2 ∙ 𝑃(𝑋) = −2 ∙ 1 = −2‬‬

‫תוחלת של פונקציה של משתנה מקרי –‬


‫אם 𝑋 הוא מ"מ‪ ,‬ו‪ 𝑔(𝑋) -‬הוא פונקציה כלשהי שלו‪ ,‬אז כדי לחשב את התוחלת של )𝑋(𝑔 אי אפשר‬
‫להשתמש בתוחלת של ‪ X‬באופן פשוט‪ .‬אלא יש צורך בחישוב תוחלת מחדש לערך החדש של ‪.X‬‬

‫דוגמה ‪:1‬‬
‫‪ X‬הוא מ"מ המציין את התוצאה של הטלת קוביה‪ .‬חשבו את ] ‪.𝐸[𝑋 2‬‬

‫אם ‪ X‬הוא התוצאה של הטלת קובייה אז התוחלת שלו שווה ל‪( 3.5‬חושב בסעיפים הקודמים) (כלומר‪ ,‬אם‬
‫במשחק נשלם על פי תוצאת הקוביות תוחלת הרווח תהיה ‪ .)3.5‬התוחלת של ‪( X2‬כלומר‪ ,‬תוחלת הרווח‬
‫במשחק שבו נשלם לפי תוצאת הקוביות בריבוע) תהיה לא שווה ל‪.3.52‬‬

‫𝟐)]𝑿[𝑬( ≠ ] 𝟐𝑿[𝑬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1 91‬‬ ‫𝟏‬


‫= ∙ ‪𝐸[𝑋 2 ] = ∑ 𝑥 2 ∙ 𝑃(𝑥) = = 12 ∙ + 22 ∙ + 32 ∙ + 42 ∙ + 52 ∙ + 62‬‬ ‫𝟓𝟏 =‬
‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫𝟔‬
‫𝑥‬

‫תוחלת של טרנספורמציה ליניארית של משתנה מקרי –‬


‫חריג לכלל תוחלת של פונקציה של מ"מ‪.‬‬

‫נניח ש‪ 𝑋-‬הוא מ"מ‪ ,‬ו‪ 𝑎, 𝑏 -‬קבועים‪ .‬נגדיר מ"מ חדש‪( 𝑌 = 𝑏𝑋 + 𝑎 ,‬נוסחה של קו ישר)‪ .‬במקרה זה‪𝑌 ,‬‬
‫נקרא טרנספורמציה ליניארית של 𝑿 (שינוי של קו ישר) מפני שהוא מוגדר על‪-‬ידי הפעלת נוסחת הקו‬
‫הישר על 𝑋‪ .‬ניתן לחשב את התוחלת של ‪ Y‬באופן ישיר על ידי ‪.X‬‬

‫𝒂 ‪. 𝑬[𝒀] = 𝒃 ∙ 𝑬[𝑿] +‬‬

‫הוכחה‪:‬‬

‫= ]))𝑥(𝑃 ∙ 𝑎( ‪𝐸[𝑌] = 𝐸[𝑏𝑋 + 𝑎] = ∑(𝑏𝑥 + 𝑎) ∙ 𝑃(𝑥) = ∑[(𝑏𝑥 ∙ 𝑃(𝑥)) +‬‬


‫𝑥‬ ‫𝑥‬

‫𝑎 ‪= ∑ 𝑏𝑥 ∙ 𝑃(𝑥) + ∑ 𝑎 ∙ 𝑃(𝑥) = = 𝑏 ∑ 𝑥 ∙ 𝑃(𝑥) + 𝑎 ∑ 𝑃(𝑥) = 𝑏 ∙ 𝐸[𝑋] +‬‬


‫𝑥‬ ‫𝑥‬ ‫𝑥‬ ‫𝑥‬

‫התוחלת של ‪ = Y‬התוחלת של [‪ = ]bX+a‬הסכום של [‪ ]bX+a‬כפול ההסתברות של ‪ = X‬הסכום של ‪ bX‬כפול‬


‫ההסתברות של ‪ X‬ועוד ההסתברות של ‪ a‬כפול ההסתברות של ‪ = X‬הסיגמה של ‪ bX‬כפול ההסתברות של ‪X‬‬
‫ועוד הסיגמה של ‪ a‬כפול ההסתברות של ‪ = X‬הוצאת הקבועים אל מחוץ לסיגמה – ‪ b‬כפול הסיגמה של ‪X‬‬
‫כפול ההסתברות ל‪( X‬התוחלת של ‪ )X‬ועוד ‪ a‬כפול ההסתברות ל‪( X‬סך ההסתברויות השלמות ל‪ X‬שהוא ‪)1‬‬
‫= ‪ b‬כפול התוחלת של ‪ X‬ועוד ‪.a‬‬
‫בטרנספורמציה מה שמשנה הם הערכים ולא ההסתברויות‪.‬‬
‫דוגמה ‪:1‬‬
‫ראינו קודם‪ ,‬כי אם ‪ X‬הוא מ"מ המציין את התוצאה של זריקת קוביה בודדת‪ ,‬אז התוחלת של ‪ X‬היא‪:‬‬

‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1‬‬ ‫‪1 21‬‬


‫= ∙ ‪𝐸[𝑋] = ∑ 𝑥 ∙ 𝑝(𝑥) = 1 ∙ + 2 ∙ + 3 ∙ + 4 ∙ + 5 ∙ + 6‬‬ ‫‪= 3.5‬‬
‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬ ‫‪6‬‬
‫𝑥‬

‫מהי התוחלת של ‪?Y=2X‬‬

‫‪𝐸[2𝑋] = 2 ∙ 𝐸[𝑋] = 2 ∙ 3.5 = 7‬‬

‫שונות (‪)variance‬‬
‫עבור משתנה מקרי שהינו קבוע‪ ,‬התוחלת מאפיינת לחלוטין את ההפלגות‪ .‬בכל מצב אחר‪ ,‬נרצה לדעת עד‬
‫כמה הערכים של המשתנה המקרי קרובים או רחוקים לתוחלת‪.‬‬

‫) 𝑖𝑥(𝑃 × ‪𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝜇)2 ] = ∑(𝑥𝑖 − 𝜇)2‬‬


‫𝑖‬
‫)𝑋( ‪𝑉𝑎𝑟(𝑋) = 𝐸(𝑋 2 ) − 𝐸 2‬‬

‫השונות שווה לתוחלת ריבועי הסטיות מהתוחלת‪.‬‬

‫תוחלת הסטיות מהתוחלת שווה תמיד ל‪.0-‬‬

‫דוגמה ‪:1‬‬

‫עבור דוגמת שלושת הקוביות‪ ,‬ראינו כי‬

‫‪. 579‬‬ ‫‪𝑋=0‬‬


‫‪. 347‬‬ ‫‪𝑋=1‬‬
‫‪(𝑋) = . 069‬‬ ‫‪𝑋=2‬‬
‫‪. 005‬‬ ‫‪𝑋=3‬‬
‫‪{ 0‬‬ ‫𝑒𝑠𝑖𝑤𝑟𝑒‪𝑂𝑡ℎ‬‬
‫חשבו את )‪.Var(X‬‬

‫)𝑥(𝑃 ∙ ‪𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝜇)2 ] = ∑(𝑥 − 𝜇)2‬‬


‫𝑥‬

‫= ‪= (0 − .5)2 ∙ 0.579 + (1 − .5)2 ∙ 0.347 + (2 − .5)2 ∙ 0.069 + (3 − .5)2 ∙ 0.005‬‬


‫‪0.418‬‬

‫סטיית תקן (‪ – )Standard Deviation‬מוגדרת על‪-‬ידי שורש השונות‪ ,‬ומסומנת באות 𝜎 (סיגמה קטנה)‪.‬‬
‫סטיית התקן לא מעידה על ה‪ X‬הגדול ביותר או הקטן ביותר האפשרי‪ ,‬אלא על הסטייה הממוצעת‪.‬‬

‫)𝑋(𝑟𝑎𝑉√ = 𝜎‬

‫מכאן‪ ,‬שונות ניתן לסמן גם כ‪. 𝝈𝟐 -‬‬


‫( ‪ ) 𝑉𝑎𝑟(𝑋) ≥ 0‬השונות תמיד תהיה גדולה או שווה ל‪( 0-‬שווה ל‪ 0-‬רק כאשר המשתנה המקרי הוא‬
‫קבוע)‪.‬‬
‫‪𝑉𝑎𝑟(𝑋) = 𝐸[𝑋 2 ] − (𝐸[𝑋])2‬‬

‫הוכחה‪:‬‬

‫= ‪𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝜇)2 ] = 𝐸[𝑋 2 − 2𝜇𝑋 + 𝜇2 ] = 𝐸[𝑋 2 ] − 2𝜇 ∙ 𝐸[𝑋] + 𝜇2‬‬


‫‪= 𝐸[𝑋 2 ] − 2𝜇2 + 𝜇2 = 𝐸[𝑋 2 ] − 𝜇2 = 𝐸[𝑋 2 ] − (𝐸[𝑋])2‬‬

‫תוחלת של סכום שווה לסכום של תוחלות‪.‬‬

‫שונות של טרנספורמציה ליניארית של משתנה מקרי‪:‬‬

‫נניח ש‪ 𝑋-‬הוא משתנה מקרי‪ ,‬ו‪ 𝑎, 𝑏 -‬קבועים‪ .‬נגדיר משתנה מקרי חדש – 𝑎 ‪.𝑌 = 𝑏𝑋 +‬‬

‫טענה‪𝑽𝒂𝒓[𝒀] = 𝒃𝟐 ∙ 𝑽𝒂𝒓[𝑿] :‬‬

‫] ‪𝑉𝑎𝑟(𝑋) = 𝐸[(𝑋 − 𝜇)2‬‬

‫𝑎 ‪𝐸[𝑌] = 𝑏 ∙ 𝐸[𝑋] +‬‬

‫הוכחה‪:‬‬

‫] ‪𝑽𝒂𝒓[𝒀] = 𝐸[(𝑌 − 𝜇)2 ] = 𝐸[[(𝑏𝑋 + 𝑎) − (𝑏𝜇 + 𝑎)]2 ] = 𝐸[(𝑏𝑋 − 𝑏𝜇)2 ] = 𝐸[[𝑏(𝑋 − 𝜇)]2‬‬
‫]𝑿[𝒓𝒂𝑽 ∙ 𝟐𝒃 = ] ‪= 𝐸[𝑏 2 ∙ (𝑋 − 𝜇)2 ] = 𝑏 2 ∙ 𝐸[(𝑋 − 𝜇)2‬‬

‫שונות של הטרנספורמציה הליניארית מושפעת רק מ‪( b‬כפל בקבוע) ואינה מושפעת מ‪( a‬תוספת או הורדה‬
‫של קבוע)‪.‬‬

‫דוגמה‪:‬‬

‫‪ X‬הוא מ"מ המציין את הרווח (בדולרים) במשחק הימורים‪.‬‬

‫נתון‪ . 𝐸[𝑋] = −2, 𝑉𝑎𝑟[𝑋] = 10 :‬שער הדולר הוא ‪ 3.77‬ש"ח‪.‬‬

‫חשבו את התוחלת ואת סטיית התקן בשקלים‪.‬‬

‫פתרון‪:‬‬

‫𝑋‪𝑌 = 3.77‬‬

‫‪𝐸[𝑌] = 3.77𝐸[𝑋] = −7.54‬‬

‫‪𝑉𝑎𝑟[𝑌] = 3.772 𝑉𝑎𝑟[𝑋] = 142.13‬‬

‫𝟐𝟗 ‪𝝈 = √𝟏𝟒𝟐. 𝟏𝟑 = 𝟏𝟏.‬‬


‫התפלגויות בדידות מיוחדות‬

‫התפלגות ברנולי‪:‬‬

‫ניסוי ברנולי* הוא ניסוי מקרי בעל שתי תולדות אפשריות‪.‬‬


‫ההסתברות לאחת התולדות היא 𝑝‪ ,‬וההסתברות לתולדה השנייה היא )𝑝 ‪. 𝑞 = (1 −‬‬
‫נהוג לקרוא לתולדה הראשונה "הצלחה" ולשנייה "כישלון"‪.‬‬

‫התפלגות ברנולי – משתנה מקרי בעל שני ערכים בלבד‪ .‬נסמן "הצלחה"=‪" ,1‬כישלון"=‪.0‬‬

‫פונקציית מסת ההסתברות –‬


‫𝑝‬ ‫‪𝑥=1‬‬
‫{ = )𝑋(𝑃‬
‫‪(1 − 𝑝) 𝑥 = 0‬‬

‫תוחלת –‬

‫𝑝 = )𝑝 ‪𝐸(𝑋) = ∑ 𝑥𝑃(𝑥) = 1 ∙ 𝑝 + 0 ∙ (1 −‬‬

‫שונות –‬

‫‪𝑉𝑎𝑟(𝑋) = 𝐸[𝑋 2 ] − (𝐸[𝑋])2‬‬

‫נמצא את ] ‪:𝐸[𝑋 2‬‬

‫𝑝 = )𝑝 ‪𝐸[𝑋 2 ] = 12 ∙ 𝑝 + 02 ∙ (1 −‬‬

‫לכן‪:‬‬

‫𝒒 ∙ 𝒑 = )𝒑 ‪𝑉𝑎𝑟(𝑋) = 𝑝 − 𝑝2 = 𝒑(𝟏 −‬‬

‫השונות תהיה הכי גדולה כאשר ‪ P‬ו‪ Q‬יהיו שווים זה לזה (‪ – )0.5‬השונות תהיה שווה ל‪.0.25‬‬
‫דוגמה ‪:1‬‬

‫ידוע כי ‪ 65%‬מהסטודנטים עובדים כדי לממן את שכר הלימוד שלהם‪.‬‬

‫בוחרים סטודנט באופן מקרי‪ .‬ההסתברות שהוא עובד ("הצלחה")‪.p=.65 :‬‬

‫תוחלת‪𝐸(𝑋) = 𝑝 = .65 :‬‬

‫שונות‪𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝) = .65 ∙ .35 = .23 :‬‬

‫אם הפרופורציה (הסתברות) באוכלוסייה הייתה ‪:90%‬‬

‫תוחלת‪𝐸(𝑋) = 𝑝 = .9 :‬‬

‫שונות‪𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝) = .9 ∙ .1 = .09 :‬‬


‫התפלגות בינומית‪:‬‬

‫מבצעים 𝑛 ניסויי ברנולי‪ ,‬שהסתברות ההצלחה בכל אחד מהם היא 𝑝 והסתברות הכישלון 𝑝 ‪.𝑞 = 1 −‬‬
‫מספר ההצלחות ב‪ 𝑛-‬ניסויי ברנולי הוא מספר בין ‪ 0‬ל‪( 𝑛-‬משתנה מקרי בדיד)‪.‬‬

‫התפלגות בינומית – פונקציית מסת ההסתברות ב‪ 𝑛-‬ניסויי ברנולי‪.‬‬

‫𝒏‬
‫𝒌‪𝑷(𝑿 = 𝒌) = ( ) ∙ 𝒑𝒌 ∙ (𝟏 − 𝒑)𝒏−‬‬
‫𝒌‬

‫כאשר‬

‫𝑛‬ ‫!𝑛‬
‫=) (‬
‫𝑘‬ ‫!𝑘 ∙ !)𝑘 ‪(𝑛 −‬‬

‫ההסתברות לכל רצף בודד‪ ,‬שבו 𝑘 הצלחות ו‪(𝑛 − 𝑘) -‬כישלונות היא‬

‫𝑘‪𝑃 = 𝑝𝑘 ∙ (1 − 𝑝)𝑛−‬‬

‫𝑛‬
‫קיימים ) ( רצפים שונים כאלה‪ ,‬ולכן ההסתברות לקבל ‪ k‬הצלחות באופן כללי היא‬
‫𝑘‬

‫𝒏‬
‫𝒌‪𝑷(𝑿 = 𝒌) = ( ) ∙ 𝒑𝒌 ∙ (𝟏 − 𝒑)𝒏−‬‬
‫𝒌‬

‫פונקציה זו תלויה בשני פרמטרים‪ n ,‬ו‪ .p-‬נסמן )𝑝 ‪.𝑋~𝐵(𝑛,‬‬


‫פונקציית מסת ההסתברות – נוטה להיות סימטרית ככל ש‪ p‬קרוב ל‪.0.5‬‬

‫תוחלת ‪ -‬התוחלת של משתנה מקרי בינומי היא 𝑝 ∙ 𝑛 = ]𝑋[𝐸‪.‬‬

‫הוכחה "אינטואיטיבית"‪ :‬עבור ‪ ,n=1‬מדובר בהתפלגות ברנולי‪ ,‬שהתוחלת שלה ‪ .p‬אם נבצע ‪ n‬ניסויים‬
‫בלתי‪-‬תלויים כאלה‪ ,‬תוחלת מספר ההצלחות תהיה 𝑝 ∙ 𝑛 ‪.‬‬

‫שונות – השונות של משתנה מקרי בינומי היא‪( 𝜎 2 = 𝑛 ∙ 𝑝 ∙ (1 − 𝑝) :‬או‪.)𝝈𝟐 = 𝒏 ∙ 𝒑 ∙ 𝒒 :‬‬

‫הוכחה "אינטואיטיבית"‪ :‬עבור ‪ n=1‬מדובר במשתנה ברנולי בעל שונות )𝑝 ‪ ,𝑝(1 −‬אם נבצע ‪ n‬ניסויים‬
‫בלתי תלויים כאלה‪ ,‬שונות מספר ההצלחות תהיה )𝑝 ‪ .𝑛 ∙ 𝑝(1 −‬גם כאן‪ ,‬ככל ש‪ p-‬קרוב יותר ל‪ ,0.5-‬כך‬
‫השונות גדולה יותר‪.‬‬

‫הנחות המודל הבינומי – התפלגות בינומית היא פונקציית התפלגות תיאורטית‪ ,‬שבבסיסה עומדת ההנחה‬
‫שההסתברות ל‪ p-‬הינה זהה בכל שלב‪ .‬מכאן‪ ,‬שהמודל הבינומי מניח אי‪-‬תלות בין התוצאות של הניסויים‬
‫השונים‪ .‬זוהי הנחה תיאורטית שהחוקר מקבל כאשר הוא מחליט להשתמש במודל הבינומי‪.‬‬

‫(הנכונות של הסתברויות שמופקות מהמודל הבינומי תלויה באמיתות הנחות אלה – הטענה שמשתנה‬
‫מסויים מתפלג בינומית הינה תיאוריה על העולם)‪.‬‬
‫דוגמה ‪:1‬‬

‫נניח שהניסוי הוא הטלת קובייה ‪ 3‬פעמים‪ ,‬והמ"מ 𝑋 הוא מספר הפעמים שהתקבלה התוצאה "‪ ."1‬מהם הערכים‬
‫האפשריים של המשתנה‪ ,‬ומהי ההסתברות לכל אחד מהם?‬

‫נגדיר‪ :‬הצלחה – התקבלה התוצאה "‪ ,"1‬כישלון – התקבלה תוצאה שאינה "‪."1‬‬

‫‪1‬‬ ‫‪5‬‬
‫=𝑝‬ ‫‪;q = ;n = 3‬‬
‫‪6‬‬ ‫‪6‬‬

‫!‪3‬‬ ‫‪1 0 5 3‬‬


‫= )‪𝑃(𝑋 = 0‬‬ ‫‪∙ ( ) ∙ ( ) = 0.578‬‬
‫‪(3 − 0)! 0! 6‬‬ ‫‪6‬‬

‫!‪3‬‬ ‫‪1 1 5 2‬‬


‫= )‪𝑃(𝑋 = 1‬‬ ‫‪∙ ( ) ∙ ( ) = 0.347‬‬
‫‪(3 − 1)! 1! 6‬‬ ‫‪6‬‬

‫!‪3‬‬ ‫‪1 2 5 1‬‬


‫= )‪𝑃(𝑋 = 2‬‬ ‫‪∙ ( ) ∙ ( ) = 0.069‬‬
‫‪(3 − 2)! 2! 6‬‬ ‫‪6‬‬

‫!‪3‬‬ ‫‪1 3 5 0‬‬


‫= )‪𝑃(𝑋 = 3‬‬ ‫‪∙ ( ) ∙ ( ) = 0.005‬‬
‫‪(3 − 3)! 0! 6‬‬ ‫‪6‬‬

‫דוגמה ‪:2‬‬

‫הסתברות ההצלחה בטיפול קצר טווח לחרדה חברתית היא ‪ .0.7‬נדגמו ‪ 5‬אנשים בעלי חרדה חברתית וקיבלו טיפול‬
‫זה‪.‬‬

‫מהי פונקציית מסת ההסתברות עבור מספר האנשים שעבורם הצליח הטיפול?‬
‫𝑛‬
‫𝑘‪𝑃(𝑋 = 𝑘) = ( ) ∙ 𝑝𝑘 ∙ (1 − 𝑝)𝑛−‬‬
‫𝑘‬
‫‪5‬‬
‫‪𝑃(𝑋 = 0) = ( ) ∙. 70 ∙ (1 − .7)5−0 = .002‬‬
‫‪0‬‬
‫‪5‬‬
‫‪𝑃(𝑋 = 1) = ( ) ∙. 71 ∙ (1 − .7)5−1 = .028‬‬ ‫‪0.40‬‬
‫‪1‬‬
‫‪5‬‬ ‫‪0.30‬‬
‫‪𝑃(𝑋 = 2) = ( ) ∙. 72 ∙ (1 − .7)5−2 = .132‬‬
‫‪2‬‬
‫)‪P(X‬‬

‫‪0.20‬‬
‫‪5‬‬
‫‪𝑃(𝑋 = 3) = ( ) ∙. 73 ∙ (1 − .7)5−3 = .309‬‬
‫‪3‬‬ ‫‪0.10‬‬
‫‪5‬‬ ‫‪0.00‬‬
‫‪𝑃(𝑋 = 4) = ( ) ∙. 74 ∙ (1 − .7)5−4 = .360‬‬
‫‪4‬‬ ‫‪0‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪3‬‬ ‫‪4‬‬ ‫‪5‬‬
‫‪5‬‬ ‫‪X‬‬
‫‪𝑃(𝑋 = 5) = ( ) ∙. 75 ∙ (1 − .7)5−5 = .168‬‬
‫‪5‬‬
‫דוגמה ‪:3‬‬

‫סטודנט לפסיכולוגיה משתתף בניסוי שבו הוא נדרש ללמוד ‪ 12‬מילים‪ ,‬ולאחר מכן נדרש לשלוף אותן מהזיכרון‪.‬‬
‫נניח שההסתברות לשלוף כל מילה בודדת מהזיכרון היא ‪.80%‬‬
‫כמו‪-‬כן נניח‪ ,‬כי שליפה של מילה מסוימת הינה בלתי תלויה במילים האחרות‪ ,‬וכן הסתברות השליפה זהה עבור כל‬
‫המילים‪.‬‬

‫א‪ .‬מה ההסתברות שהסטודנט ישלוף מהזיכרון יותר מ‪ 10-‬מילים?‬

‫ב‪ .‬מה תוחלת המילים שישלוף מהזיכרון? מהי סטיית התקן?‬

‫פתרון‪:‬‬

‫ההסתברות שישלוף יותר מ‪ 10-‬מילים מורכבת משתי אפשרויות‪:‬‬


‫ההסתברות לשלוף ‪ 11‬מילים‪ ,‬ועוד (או) ההסתברות לשלוף ‪ 12‬מילים‪.‬‬

‫נחשב כל אחת בנפרד‪.‬‬

‫‪12‬‬
‫‪𝑃(𝑋 = 11) = ( ) ∙ .811 ∙ (1 − .8)12−11 = .206‬‬
‫‪11‬‬
‫‪12‬‬
‫‪𝑃(𝑋 = 12) = ( ) ∙ .812 ∙ (1 − .8)12−12 = .069‬‬
‫‪12‬‬
‫ההסתברות לשלוף יותר מ‪ 10‬מילים‪:‬‬

‫‪𝑃 = .206 + .069 = .275‬‬

‫תוחלת‪:‬‬

‫‪𝐸[𝑋] = 𝑛 ∙ 𝑝 = 12 ∙ .8 = 9.6‬‬

‫שונות‪:‬‬

‫‪𝑉𝑎𝑟[𝑋] = 𝑛 ∙ 𝑝 ∙ 𝑞 = 12 ∙ .8 ∙ .2 = 1.92‬‬

‫סטיית תקן‪:‬‬

‫‪𝜎 = √1.92 = 1.386‬‬


‫התפלגות פואסון‪:‬‬

‫קירוב להתפלגות בינומית‪ ,‬במצב שבו ‪ p‬קטן מאוד ו‪ n-‬גדול מאוד‪.‬‬

‫𝒑 ∙ 𝒏 = 𝝀 (תוחלת המשתנה הבינומי)‪ ,‬כאשר ∞ → 𝒏 ‪:𝒑 → 𝟎,‬‬

‫𝒌𝝀‬
‫!𝒌 ∙ 𝝀‪𝑷(𝑿 = 𝒌) ≈ 𝒆−‬‬ ‫פונקציית מסת הסתברות עבור התפלגות פואסונית –‬

‫)𝜆(𝑛𝑜𝑠𝑠𝑖𝑜𝑃~𝑋‬ ‫‪ X‬מתפלג פואסונית עם פרמטר 𝜆 –‬

‫נשתמש בהתפלגות פואסונית כאשר הפרמטר הנתון הוא 𝜆‪ ,‬ולא ‪ p‬או ‪ .n‬כלומר‪ ,‬לא תהיה נתונה הסתברות‬
‫ולא גודל מדגם‪ ,‬אלא מספר מאורעות ממוצע (ממוצע זה יתייחס לרוב ליחידת זמן מסוימת)‪.‬‬

‫𝜆 – קצב האירועים‪ .‬מספר האירועים ("הצלחות") ביחידת זמן‪.‬‬

‫כמו בהתפלגות בינומית‪ ,‬גם התפלגות פואסונית נוטה להיות סימטרית ככל ש‪ 𝜆 -‬גדולה יותר‪.‬‬

‫תוחלת של ‪ X‬מ"מ המתפלג פואסונית – 𝝀 = )𝑿(𝑬‬

‫שונות של ‪ X‬מ"מ המתפלג פואסונית – 𝝀 = )𝑿(𝒓𝒂𝑽‬

‫הנחות המודל הפואסוני – בדומה להתפלגות בינומית‪ ,‬גם התפלגות פואסונית היא מודל מתמטי תיאורטי‪,‬‬
‫שמתבסס על הנחות מסויימות‪ ,‬ומותנה בהן‪:‬‬
‫א‪ .‬הנחת ההסתברויות השוות של המודל הבינומי (מפני שהתפלגות פואסונית מבוססת על בינומית)‬
‫ב‪ .‬ההסתברות ששני מאורעות יתרחשו בדיוק יחד היא ‪.0‬‬

‫דוגמה ‪:1‬‬

‫במצב מנוחה‪ ,‬מספר פוטנציאלי הפעולה של נוירון מסויים במוח של עכבר מתפלג‬
‫פואסונית‪ ,‬ושווה ל‪ 10-‬פעמים בשניה בממוצע‪ .‬חוקר הקליט את פעילות הנוירון‬
‫באמצעות אלקטרודה‪ .‬מה ההסתברות שבשניה מסויימת יימדדו בדיוק ‪ 8‬פוטנציאלי‬
‫פעולה?‬

‫𝑘𝜆‬
‫∙ 𝜆‪𝑃(𝑋 = 𝑘) = 𝑒 −‬‬
‫!𝑘‬

‫‪108‬‬
‫∙ ‪𝑃(𝑋 = 8) = 𝑒 −10‬‬ ‫‪= .11‬‬
‫!‪8‬‬
‫התפלגות גיאומטרית‪:‬‬

‫מבצעים סדרה של ניסויי ברנולי‪ .‬בכל אחד מהניסויים‪ ,‬הסתברות שווה לתולדה "הצלחה" – ‪ .P‬נגדיר את‬
‫המשתנה המקרי ‪ ,X‬כמספר הניסויים שיש לבצע עד שמתקבלת "הצלחה" בפעם הראשונה‪.‬‬

‫פונקציית מסת ההסתברות מוגדרת‪:‬‬

‫𝒑 ∙ 𝟏‪𝑷(𝑿 = 𝒌) = (𝟏 − 𝒑)𝒌−‬‬

‫נסמן )𝑝(𝐺~𝑋 ‪.‬‬

‫ההסבר לכך הוא שעל מנת שהתולדה "הצלחה" תופיע בפעם הראשונה בניסוי ה‪ ,k-‬צריכים להיות קודם‬
‫לכן )‪ (k-1‬ניסויים שבהם התולדה הייתה "כישלון"‪.‬‬
‫𝟏‬
‫= )𝑿(𝑬‬ ‫תוחלת של ‪ X‬מ"מ המתפלג גיאומטרית‬
‫𝒑‬

‫𝒑‪𝟏−‬‬
‫= )𝑿(𝒓𝒂𝑽‬ ‫𝟐𝒑‬
‫המתפלג גיאומטרית‬ ‫שונות של ‪ X‬מ"מ‬

‫תכונת חוסר זיכרון – בגלל שהתוצאות בלתי תלויות זו בזו‪ ,‬ההסתברות שהתולדה הצלחה תופיע בפעם‬
‫הראשונה בניסוי ה‪ k‬בהינתן שב‪ n‬ההטלות הראשונות התולדה הייתה כישלון הוא ))𝑛 ‪𝑃(𝑋 = (𝑘 −‬‬

‫דוגמה ‪:1‬‬

‫מטילים קובייה פעם אחר פעם‪ ,‬עד שמתקבלת התוצאה "‪ ."6‬מה ההסתברות שמספר ההטלות‬
‫הוא ‪ ?10‬מה התוחלת ומה השונות של משתנה זה?‬

‫‪5‬‬ ‫‪1‬‬
‫‪𝑃(𝑋 = 10) = (1 − 𝑝)9 ∙ 𝑝 = ( ) 9 ∙ = .032‬‬
‫‪6‬‬ ‫‪6‬‬
‫‪1 1‬‬
‫= )𝑋(𝐸‬ ‫‪= =6‬‬
‫‪𝑝 1‬‬
‫‪6‬‬
‫𝑝‪1−‬‬
‫= )𝑋(𝑟𝑎𝑉‬ ‫‪= 30‬‬
‫‪𝑝2‬‬
‫דוגמה ‪:2‬‬

‫נתון כי בשלוש ההטלות הראשונות לא התקבלה התוצאה "‪."6‬כעת‪ ,‬מה הסיכוי שמספר ההטלות‬
‫הנדרש (עד לקבלת "‪ )"6‬יהיה ‪?10‬‬

‫בגלל שהתוצאות ב"ת זו בזו‪ ,‬ניתן פשוט לחשב את ההסתברות שמעכשיו מספר ההטלות יהיה ‪:7‬‬
‫‪𝑃(𝑋 = 7) = (1 − 𝑝)6 ∙ 𝑝 =. 8336 ∙ .166 = .055‬‬

‫באופן אינטואיטיבי‪ ,‬השתמשנו בתכונת "חוסר הזיכרון" של ההתפלגות הגיאומטרית‪.‬‬

‫)‪𝑃(𝑋 = 10 | 𝑋 > 3) = 𝑃(𝑋 = 7‬‬ ‫הקובייה לא זוכרת את רצף התוצאות הקודם‪ .‬לכן‬

‫הוכחת תכונת חוסר הזיכרון‪:‬‬

‫)‪𝑃((𝑋 = 10) ∩ (𝑋 > 3)) 𝑃(𝑋 = 10‬‬ ‫𝑝 ∙ ‪(1 − 𝑝)9‬‬


‫= )‪𝑃(𝑋 = 10|𝑋 > 3‬‬ ‫=‬ ‫==‬
‫)‪𝑃(𝑋 > 3‬‬ ‫)‪𝑃(𝑋 > 3‬‬ ‫‪(1 − 𝑝)3‬‬
‫‪6‬‬
‫)‪= (1 − 𝑝) ∙ 𝑝 = 𝑃(𝑋 = 7‬‬
‫משתנים מקריים רציפים‬

‫משתנים מקריים רציפים יכולים לקבל כל ערך ממשי שהוא בטווח מסוים‪.‬‬
‫‪ – X‬משתנה מקרי רציף‬

‫פונקציית ההתפלגות המצטברת )‪𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) – Cumulative Distribution Function (CDF‬‬


‫)𝑋(𝐹 היא פונקציה מונוטונית לא יורדת‪ ,‬שהערכים שלה בין ‪ 0‬ל‪.1-‬‬
‫באמצעות ה‪ CDF-‬ניתן לחשב הסתברויות שונות נוספות‪.‬‬

‫דוגמה ‪:1‬‬

‫‪𝑭(𝒙) = 𝑷(𝑿 ≤ 𝒙) .1‬‬

‫‪𝑷(𝑿 > 𝒂) = 𝟏 − 𝑭(𝒂) .2‬‬

‫‪𝑷(𝒂 < 𝑿 ≤ 𝒃) = 𝑭(𝒃) − 𝑭(𝒂) .3‬‬

‫𝒃‬
‫עבור משתנה מקרי רציף‪ ,‬ה‪ CDF‬יוגדר – 𝒙𝒅 )𝒙(𝒇 ∞‪𝑭(𝑿 ≤ 𝒃) = ∫𝑿=−‬‬

‫)𝑋(𝑓 נקראת פונקציית צפיפות ההסתברות )‪( (Probability Density Function; PDF‬זו המקבילה‬
‫הרציפה לפונקציית מסת ההסתברות)‪ .‬הסתברות מיוצגת על‪-‬ידי השטח מתחת לפונקציה (ציר ה‪ Y‬אינו‬
‫מייצג הסתברות)‪.‬‬

‫פונקציית צפיפות ההסתברות – פונקציה אי‪-‬שלילית‪.𝑓(𝑥) ≥ 0 ,‬‬


‫הצפיפות של ערך מסוים בהתפלגות היא ההסתברות ש‪ X-‬יהיה בין ‪ X‬לבין 𝜀 ‪ , 𝑋 +‬כאשר 𝜀 שואף ל‪.0-‬‬
‫מכאן נובע כי לכל ערך בהתפלגות יש צפיפות‪ .‬אבל‪ ,‬ההסתברות של ערך מסויים שווה ל‪.0-‬‬
‫(ה‪ CDF-‬הוא האינטגרל של פונקציית הצפיפות‪ .‬פונקציית הצפיפות היא הנגזרת של ה‪.)CDF-‬‬

‫ההסתברות לכל ערך בודד ספציפי )‪ P(X‬שווה ל‪.0‬‬


‫דוגמה ‪:2‬‬

‫זמן הנהיגה של אדם בין ביתו לבין מקום עבודתו מתפלג באופן אחיד בין ‪ 20‬דקות לחצי שעה‪ .‬כלומר‪ ,‬כל‬
‫אחד מהזמנים בין ‪ 20‬ל‪ 30-‬דקות סביר באותה המידה‪ .‬מה ההסתברות שביום מסוים משך הנסיעה יהיה ‪22‬‬
‫דקות לכל היותר?‬

‫‪𝑐 20 ≤ 𝑥 ≤ 30‬‬
‫{ = )𝑥(𝑓‬ ‫פונקציית הצפיפות היא‪:‬‬
‫𝑒𝑠𝑖𝑤𝑟𝑒‪0 𝑜𝑡ℎ‬‬
‫‪22‬‬
‫ולכן ההסתברות המבוקשת היא‪𝑃(𝑋 ≤ 22) = ∫−∞ 𝑓(𝑋) 𝑑𝑥 :‬‬
‫משתנים מקריים רציפים מיוחדים‪:‬‬

‫התפלגות נורמלית (גאוסיאנית)‪:‬‬

‫התפלגות נורמלית היא פעמונית וסימטרית‪.‬‬


‫מוגדרת בטווח ∞ ≤ 𝑋 ≤ ∞‪ ,−‬אסימפטוטית לציר ה‪.X-‬‬

‫𝟐)𝝁‪−(𝒙−‬‬
‫𝟏‬
‫= )𝒙(𝒇‬ ‫𝒆∙‬ ‫𝟐𝝈𝟐‬ ‫פונקציית הצפיפות של ההתפלגות נורמלית –‬
‫𝝈𝝅𝟐√‬

‫משתנה מקרי נורמלי מאופיין על‪-‬ידי שני פרמטרים‪ 𝜇 ,‬ו‪ .𝜎 2 -‬נסמן ) 𝟐𝝈 ‪.𝑿~𝑵(𝝁,‬‬

‫התפלגויות גאוסיאניות נבדלות זו מזו בתוחלת ובסטיית התקן (עבור כל ערך של פונקציה נקבל התפלגות‬
‫גאוסיאנית אחרת)‪.‬‬

‫התפלגות נורמלית סטנדרטית – תוחלת ‪ 0‬וסטיית תקן ‪.1‬‬

‫חישוב הסתברויות במודל הנורמלי – מאחר והתפלגות נורמלית היא רציפה‪ ,‬הסתברות תחושב על‪-‬ידי‬
‫שטח מתחת לפונקציית צפיפות ההסתברות‪ ,‬או על‪-‬ידי פונקציית ההתפלגות המצטברת‪.‬‬
‫כלומר‪,‬‬

‫∞‬
‫𝑥𝑑 )𝑥(𝑓 ∞‪𝐹(𝑥) = ∫−‬‬
‫‪−(𝑥−𝜇)2‬‬
‫‪1‬‬
‫= )𝑥(𝑓)‬ ‫𝜎𝜋‪2‬‬
‫𝑒∙‬ ‫‪2𝜎2‬‬ ‫(‬
‫√‬

‫האינטגרל לא מוגדר מתמטית‪.‬‬

‫התפלגות נורמלית באקסל –‬


‫הפונקציה ‪ – norm.dist‬מציאת הסתברות מצטברת בהתפלגות נורמלית עד לערך מסויים ע"י הגדרת‬
‫התוחלת וסטיית התקן‪.‬‬
‫הפונקציה ‪ – norm.inv‬מציאת הערך בהתפלגות נורמלית המתאים להסתברות מצטברת על פי התוחלת‬
‫וסטיית התקן‪.‬‬
‫התפלגות מעריכית (אקספוננציאלית)‪:‬‬

‫‪ X‬הוא משתנה מקרי רציף שמתאר את משך הזמן שחולף עד ההצלחה הראשונה (הערכים של ‪ X‬תמיד יהיו‬
‫גדולים או שווים ל‪.)𝑥 ≥ 0 – 0-‬‬
‫← אם משתנה מתפלג פואסונית – משך הזמן יתפלג בצורה אקספוננציאלית‪.‬‬

‫𝜆 קצב האירועים – ככל שקצב האירועים גבוה יותר‪ ,‬משך הזמן שנצטרך לחכות עד להצלחה הראשונה‬
‫יהיה נמוך יותר‪.‬‬

‫פונקציית הצפיפות האקספוננציאלית – 𝑥𝜆‪𝑓(𝑥) = 𝜆𝑒 −‬‬

‫נסמן )𝜆(‪𝑋~exp‬‬

‫𝑡𝜆‪𝑃(𝑥 > 𝑡) = 𝑒 −‬‬

‫פונקציית ההתפלגות המצטברת – 𝑥𝜆‪𝐹(𝑥) = 1 − 𝑒 −‬‬


‫‪1‬‬
‫תוחלת התפלגות אקספונניאלית – 𝜆 = )𝑋(𝐸‬

‫‪1‬‬
‫= )𝑋(𝑟𝑎𝑉‬ ‫שונות התפלגות אקספוננציאלית –‬
‫‪𝜆2‬‬

‫‪1‬‬
‫סטיית תקן – = )𝑋(𝐸 = )𝑋(𝑟𝑎𝑉√ = )𝑋(𝜎‬
‫𝜆‬

‫התפלגות אקספוננציאלית‪ ,‬כמו התפלגות גיאומטרית‪ ,‬היא חסרת זיכרון‪.‬‬

‫דוגמה ‪:1‬‬

‫יוסי נפרד מחברתו לפני כשנתיים‪ ,‬אבל עדיין מתגעגע אליה‪ .‬הדבר מתבטא בכך שהוא ממשיך‬
‫לחשוב עליה לעיתים תכופות‪ .‬אם מספר המחשבות על מירי מתפלג פואסונית‪ ,‬והקצב שלהן‬
‫הוא פעמיים בשבוע‪ ,‬מה ההסתברות שלא יחשוב על מירי ביומיים הקרובים?‬
‫‪2‬‬
‫קצב המחשבות מתפלג פואסונית‪ 𝜆 = 7 ,‬מחשבות ביום‪.‬‬

‫צריך למצוא‪P(x>2)=? :‬‬

‫אם ‪ X‬מבטא את מספר הימים‪ ,‬אז ההסתברות שיחשוב על מירי ביומיים הקרובים‬

‫𝒙𝝀‪𝑷(𝒙 ≤ 𝒕) = 𝑭(𝒙) = 𝟏 − 𝒆−‬‬


‫‪2‬‬
‫‪𝑃(𝑥 ≤ 2) = 1 − 𝑒 −7∙2 = 1 − .56 =. 44‬‬

‫ולכן ההסתברות שלא יחשוב עליה היא המשלימה‪ ,‬כלומר‬

‫‪𝑃(𝑥 > 2) = 1 − 𝑃(𝑥 ≤ 2) = 0.56‬‬

‫←אפשר להשתמש ישירות בנוסחה 𝑡𝜆‪P(𝑥 > 𝑡) = 𝑒 −‬‬

‫מה תוחלת הזמן שיחלוף עד שיוסי יחשוב על מירי?‬


‫‪7‬‬ ‫‪2‬‬
‫אם = 𝜆‪ ,‬אז תוחלת הזמן היא ‪ = 3.5‬ימים‪.‬‬
‫‪2‬‬ ‫‪7‬‬

‫(אם הוא חושב על מירי פעמיים בשבוע‪ ,‬אז "בממוצע" הוא חושב עליה כל ‪ 3.5‬ימים)‪.‬‬
‫התפלגויות אמפיריות‬

‫התפלגויות ספציפיות שנאספות על פי מדגם מהן נסיק מידע לגבי המשתנה התיאורטי‪ .‬מתוך התפלגות‬
‫תיאורטית מסוימת ניתן לדגום אינסוף מדגמים שונים מגודל ‪ ,N‬כל אחד יכלול תצפיות אחרות‪.‬‬

‫פרמטרים – מאפיינים של התפלגות תיאורטית‪ .‬כאשר נרצה להשתמש במודל תיאורטי מסוים‪ ,‬כלומר‬
‫נחליט שמשתנה כלשהו מתפלג באופן מסוים‪ ,‬הפרמטרים יהיו למעשה מאפיינים של התפלגות‬
‫האוכלוסייה (קבועים שמגדירים באופן מדויק את צורת ההתפלגות)‪.‬‬

‫סטטיסטים – מאפיינים של מדגם באמצעותם נאמוד את הפרמטרים של התפלגות האוכלוסייה‪,‬‬


‫הסטטיסטיים משתנים ממדגם למדגם על פי הרכב האוכלוסייה‪.‬‬

‫(שלוש קבוצות של סטטיסטים – מדדי מרכז‪ ,‬מדדי פיזור‪ ,‬מדדים למיקום יחסי)‪.‬‬
‫מדדי מרכז‪:‬‬

‫מתארים את המרכז של התפלגות המדגם‪ ,‬משמשים כדי לאמוד את המרכז של ההתפלגות התיאורטית‬
‫שממנה המדגם נלקח‪.‬‬

‫שכיח (‪ – MO )mode‬הערך בעל השכיחות הגדולה ביותר‪ ,‬השכיח לא מושפע מערכים קיצוניים במדגם‪.‬‬

‫חד שכיחית (‪ – )unimodal‬התפלגות בעל שכיח אחד (לדוגמה התפלגות נורמלית)‪.‬‬

‫דו שכיחיות (‪ – )bimodal‬התפלגות בעל שני שכיחים‪.‬‬

‫בעלת שכיחים רבים יותר (‪ – )multi-modal‬יש לדווח על כל השכיחים‪.‬‬

‫חציון (‪ – MD )median‬הערך האמצעי בהתפלגות‪ ,‬שחצי מהערכים גבוהים ממנו וחצי נמוכים ממנו‪ .‬כדי‬
‫לחשב את החציון‪ ,‬נסדר את הערכים מהקטן לגדול‪ ,‬החציון יהיה הערך האמצעי‪ .‬אינו מושפע מערכים‬
‫קיצוניים במדגם‪ .‬כאשר מספר הערכים במדגם הינו זוגי‪ ,‬החציון יחושב כממוצע הערכים המרכזיים‪.‬‬

‫ממוצע (‪̅ )mean‬‬


‫𝒙 – סכום כל הערכים חלקי מספר הערכים‪ .‬ממוצע המדגם הוא אומדן טוב לתוחלת‬
‫המשתנה המקרי של ההתפלגות התיאורטית‪ ,‬מה שהופך אותו לשימושי‪ .‬הממוצע הוא מרכז ההתפלגות‬
‫במובן זה שסכום הסטיות ממנו הוא ‪ .0‬בניגוד לשכיח ולחציון‪ ,‬הממוצע רגיש לערכים קיצוניים‪.‬‬

‫בהתפלגות סימטרית – הממוצע שווה לחציון‪.‬‬


‫בהתפלגות חד – שכיחית אסימטרית – חיובית‪( 𝑥̅ > 𝑀𝑜 ,‬לדוגמה‪ :‬שכר) ‪ /‬שלילית‪( 𝑥̅ < 𝑀𝑜 ,‬לדוגמה‪:‬‬
‫ציונים)‪.‬‬

‫קריטריון הריבועים הפחותים – סכום ריבועי הסטיות מהממוצע קטן יותר מסכום ריבועי‬
‫הסטיות מכל ערך אחר‪.‬‬

‫‪∑(𝑥𝑖 − 𝑥̅ )2 < ∑(𝑥𝑖 − 𝐴)2‬‬

‫‪ ∑(𝑥 − 𝐴)2‬הוא מינימלי עבור ̅‬


‫𝒙=𝐴‬

‫דוגמה ‪ – 1‬מדדי מרכז‪:‬‬

‫נתונה התפלגות אמפירית (הת' מדגם)‪ .48, 52, 76, 88, 92, 92, 100 :‬בהתפלגות זו ‪.N=7‬‬

‫‪𝑀𝑜 = 92‬‬
‫‪𝑀𝑑 = 88‬‬

‫‪48 + 52 + 76 + 88 + 92 + 92 + 100‬‬
‫= ̅𝑥‬ ‫‪= 78.29‬‬
‫‪7‬‬
‫מדדי פיזור‪:‬‬

‫באפיון משתנים מקריים יש להתייחס לא רק על ידי מרכז‪ ,‬אלא גם לפיזור הערכים סביב מדדים אלו‪.‬‬

‫אחוז הסטיות מהשכיח – כשמדד המרכז הוא השכיח‪ ,‬מדד הפיזור הוא אחוז התצפיות שסוטות (שונות)‬
‫מהשכיח (בלי התייחסות לגודל הסטייה)‪ .‬שווה לאפס כאשר כל הערכים במדגם שווה זה לזה‪.‬‬

‫ממוצע הסטיות המוחלטות מהחציון (‪ – AD )mean absolute deviation‬כשמדד המרכז הוא חציון‪.‬‬

‫|𝑑𝑀 ‪∑|𝑥 −‬‬


‫= 𝐷𝐴‬
‫𝑁‬

‫שונות (‪ – )variance‬כשמדד המרכז הוא הממוצע‪ ,‬מדד הפיזור יהיה ממוצע ריבוע הסטיות מהממוצע‪.‬‬

‫‪∑(𝑥 − 𝑥̅ )2‬‬
‫= ‪𝑆2‬‬
‫𝑁‬

‫טווח (‪ – )range‬הפרש בין הערך הגבוה ביותר לערך הנמוך ביותר בהתפלגות‪ .‬מושפע רק מערכים קיצוניים‪.‬‬

‫𝑛𝑖𝑚𝑋 ‪𝑅𝑎𝑛𝑔𝑒 = 𝑋𝑚𝑎𝑥 −‬‬

‫טווח מקוצץ (‪ – )truncated range‬טווח המחושב לאחר הסרת הערכים הקיצוניים בהתפלגות‪.‬‬
‫קיצוץ מקובל הוא טווח בין רבעוני (‪ )inter-quartile range‬המחשב את הטווח של ‪50%‬‬
‫המרכזיים של ההתפלגות לאחר הסרת הרבע העליון והתחתון של ההתפלגות‪.‬‬

‫דוגמה ‪ – 1‬מדדי פיזור‪:‬‬

‫נתונה התפלגות אמפירית (הת' מדגם)‪ .48, 52, 76, 88, 92, 92, 100 :‬בהתפלגות זו ‪.N=7‬‬

‫‪𝑀𝑜 = 92‬‬

‫‪5‬‬
‫∶ אחוז הסטיות מהשכיח‬ ‫‪= .71 = 71%‬‬
‫‪7‬‬

‫‪𝑀𝑑 = 88‬‬

‫‪∑|𝑥 − 𝑀𝑑| 108‬‬


‫= 𝐷𝐴 ∶ ממוצע הסטיות המוחלטות מהחציון‬ ‫=‬ ‫‪= 15.43‬‬
‫𝑁‬ ‫‪7‬‬

‫‪48 + 52 + 76 + 88 + 92 + 92 + 100‬‬
‫= ̅𝑥‬ ‫‪= 78.29‬‬
‫‪7‬‬

‫‪∑(𝑥 − 𝑥̅ )2 2,555.43‬‬
‫= ‪: 𝑆 2‬שונות‬ ‫=‬ ‫‪= 365.06‬‬
‫𝑁‬ ‫‪7‬‬
‫‪ ∶ 𝑆 = √365.06 = 19.11‬סטיית תקן‬

‫‪: 𝑅𝑎𝑛𝑔𝑒 = 100 − 48 = 52‬טווח‬


‫מדדים למיקום יחסי‪:‬‬

‫מדדים למיקום יחסי מצביעים על מיקום של ערך בודד בתוך ההתפלגות‪ .‬מדדים למיקום יחסי הינם חסרי‬
‫יחידות‪ ,‬כלומר לא קשורים ליחידות המדידה של המשתנה המקורי‪ .‬לכן‪ ,‬הם מאפשרים להשוות בין‬
‫ערכים שונים שנלקחו מהתפלגויות שונות‪.‬‬

‫מאונים (‪ – )percentiles‬המאון של ערך מסוים הוא החלק היחסי של ההתפלגות שנמצא מתחת לערך זה‬
‫(מספר בין ‪ .)0-100‬קיימות מספר דרכים שונות לחישוב המאון בהינתן התפלגות מדגם‪ ,‬דרכים אלה‬
‫מובילות לתוצאות שונות במדגמים קטנים‪ ,‬אך נוטות להתכנס לתוצאה דומה במדגמים גדולים‪ .‬שיטות‬
‫לחישוב מאונים לא מתאימות למדגמים קטנים מאוד‪.‬‬
‫החציון הוא המאון ה‪ ,50-‬המאון ה‪ 25‬נקבע רבעון תחתון( ‪ ,)𝑄1‬המאון ה‪ 75‬נקרא רבעון עליון( ‪.)𝑄3‬‬

‫טווח בין רבעוני ‪𝑄3 − 𝑄1 – IQR‬‬

‫מהו הערך הנמצא במאון מסוים – 𝑝𝑋‬


‫מהו המאון של ערך מסוים – 𝑥𝑃‬

‫דוגמה ‪:1‬‬

‫בהתפלגות מדגם‪ ,‬אם המאון של הערך ‪ X=34‬הוא ‪ 75‬אז ‪ 75%‬מהערכים בהתפלגות נמצאים מתחת‬
‫ל‪ .34-‬נסמן זאת ‪. 𝑃𝑥=34 = 75‬‬

‫חישוב הערך במאון ה‪ – P‬כאשר ‪ P‬הוא המאון ו‪ N-‬הוא גודל המדגם‪.‬‬

‫אם ‪ n‬הוא מספר שלם אזי הערך הרלוונטי הוא זה שנמצא במקום ה‪𝑿𝒑 = 𝑿𝒏 n-‬‬
‫אם ‪ n‬מספר לא שלם נפריד את ‪ n‬לשני חלקים‪ ,‬המספר השלם ‪ k‬והחלק העשרוני ‪( d‬לדוגמה אם‬
‫‪ ,n=4.23‬אזי ‪ k=4‬ו‪)d=.23 -‬‬
‫) 𝒌𝑿 ‪𝑿 = 𝑿𝒌 + 𝒅(𝑿𝑲+𝟏 −‬‬

‫דוגמה ‪:2‬‬

‫נתונה ההתפלגות האמפירית‪ .48, 52, 76, 88 :‬מהו הערך במאון ה‪) 𝑋𝑝=33( ?33-‬‬

‫מיקום המאון הוא‬

‫𝑃‬ ‫‪33‬‬
‫=𝑛‬ ‫= )‪(𝑁 + 1‬‬ ‫‪(4 + 1) = 1.65‬‬
‫‪100‬‬ ‫‪100‬‬
‫נפריד את ‪ n‬לשני חלקים‪k=1, d=.65:‬‬

‫נציב בנוסחה למציאת הערך במאון‬

‫‪𝑋 = 𝑋𝑘 + 𝑑(𝑋𝐾+1 − 𝑋𝑘 ) = 𝑋1 + .65(𝑋2 − 𝑋1 ) = 48 + .65(52 − 48) = 50.6‬‬

‫𝑛∙‪100‬‬
‫= ‪( P‬כאשר ‪ P‬הוא המאון‬ ‫‪𝑁+1‬‬
‫ערך זה בהעברת אגפים‬ ‫חישוב המאון של הערך ‪ – X‬נמצא את המיקום של‬

‫ו‪ N‬הוא גודל המדגם)‪.‬‬


‫דוגמה ‪:3‬‬

‫עבור חישוב ‪n=2 ← 𝑃𝑥=52‬‬

‫‪100 ∙ 𝑛 100 ∙ 2‬‬


‫=‪P‬‬ ‫=‬ ‫‪= 40‬‬
‫‪𝑁+1‬‬ ‫‪4+1‬‬
‫ציוני תקן (‪ – )standard scores; z-scores‬ציון התקן של ערך במדגם מוגדר כמרחק שלו מהממוצע‬
‫ביחידות של סטיית תקן‪.‬‬

‫̅𝑥 ‪𝑥 −‬‬
‫= 𝑥𝑍‬
‫𝑆‬

‫‪ Z‬יכול להיות מספר חיובי (גדול מהממוצע) או שלילי (נמוך מהממוצע)‪ ,‬ציון התקן של ממוצע המדגם הוא‬
‫‪.0‬‬

‫ציון התקן הוא ערך שאינו תלוי ביחידות המדידה של המשתנה‪ ,‬מאפשר להשוות בין ציונים שונים ביחידות‬
‫מדידה שונות‪.‬‬
‫דוגמה ‪:1‬‬

‫בהתפלגות האמפירית‪ ,48, 52, 76, 88, 92, 92, 100 :‬ראינו כי ‪𝑥̅ = 78.29, 𝑠 = 19.11‬‬

‫לכן‬

‫‪100 − 78.29‬‬
‫= ‪𝑍𝑥=100‬‬ ‫‪= 1.14‬‬
‫‪19.11‬‬
‫‪52 − 78.29‬‬
‫= ‪𝑍𝑥=52‬‬ ‫‪= −1.38‬‬
‫‪19.11‬‬

‫ממוצע ציוני התקן שווה ל‪ – 0‬אם ניקח מדגם‪ ,‬ונמיר את כל הערכים מציוני גלם לציוני תקן‪ ,‬אז‬ ‫•‬
‫ממוצע ציוני התקן יהיה ‪.0‬‬
‫‪(𝑥 − 𝑥̅ ) 1‬‬
‫∑ 𝑧∑‬ ‫𝑠‬ ‫‪∙ ∑(𝑥 − 𝑥̅ ) 0‬‬
‫= ̅𝑍‬ ‫=‬ ‫𝑠=‬ ‫‪= =0‬‬
‫𝑁‬ ‫𝑁‬ ‫𝑁‬ ‫𝑁‬

‫השונות של ציוני התקן שווה ל‪( 1 -‬ולכן גם סטיית התקן שווה ל‪ – )1 -‬אם ניקח מדגם‪ ,‬ונמיר את‬ ‫•‬
‫כל הערכים מציוני גלם לציוני תקן‪ ,‬אז שונות ציוני התקן יהיה ‪.1‬‬
‫‪∑(𝑧 − 𝑧̅)2 ∑(𝑧 − 0)2 ∑ 𝑧 2‬‬
‫= 𝑧‪𝑆2‬‬ ‫=‬ ‫=‬
‫𝑁‬ ‫𝑁‬ ‫𝑁‬
‫‪(𝑥 − 𝑥̅ )2‬‬
‫∑‬ ‫‪1 ∑(𝑥 − 𝑥̅ )2‬‬ ‫‪1‬‬
‫=‬ ‫‪𝑠2‬‬ ‫∙‪= 2‬‬ ‫‪= 2 ∙ 𝑠2 = 1‬‬
‫𝑁‬ ‫𝑠‬ ‫𝑁‬ ‫𝑠‬

‫ציוני תקן הם טרנספורמציה ליניארית של ציוני הגלם – אם המשתנה ‪ X‬הוא ציוני גלם‪ ,‬אז ניתן‬ ‫•‬
‫לכתוב את ציוני התקן כ‪.𝑍 = 𝑏𝑋 + 𝑎 :‬‬
‫‪𝑥 − 𝑥̅ 1‬‬ ‫̅𝑥‬
‫=𝑍‬ ‫‪= ∙𝑥−‬‬
‫𝑠‬ ‫𝑠‬ ‫𝑠‬
‫‪1‬‬ ‫̅𝑥‬
‫𝑠 = 𝑏)‬ ‫(𝑠 ‪𝑎 = −‬‬
‫טרנספורמציה לציוני תקן לא משנה את צורת ההתפלגות באופן כללי (התפלגות נורמלית‬
‫סטנדרטית נוצרת על ידי טרנספורמציה לציוני תקן של משתנה שמתפלג נורמלית‪ ,‬ציוני תקן של‬
‫משתנה אחר‪ ,‬שאינו מתפלג נורמלית‪ ,‬אינם מתפלגים נורמלית)‪.‬‬
‫סולמות מדידה‬

‫מדידה מוגדרת כמתן ערכים מספריים לאובייקטיבים‪/‬מאורעות באופן שיטתי‪.‬‬

‫סווג משתנים על פי סולמות מדידה – מדידה על פי חוקים שונים‪ ,‬וסווג משתנים לפי מאפיינים שנובעים‬
‫מחוקים אלו (יגדירו עבור כל משתנה את התכונות שלו וסיווג הניתוח הסטטיסטי שמתאים לו)‪.‬‬

‫סולם שמי – נומינלי (‪ – )nominal scale‬לא מתבצעת מדידה אלא רק מתן שם‪/‬תווית מספרית לערכים‬
‫מסוימים (לדוגמה‪ :‬מין [גבר‪/‬אישה]‪ ,‬נטייה פוליטית [רפובליקנים‪/‬דמוקרטים])‪ .‬הניתוח הסטטיסטי של‬
‫משתנים נומינליים ייעשה בד"כ באמצעות מדדים של שכיחות‪ ,‬שכיח‪ ,‬ואחוז סטיות מהשכיח‪.‬‬

‫סולם סדר – אורדינלי (‪ – )ordinal scale‬מסדר תצפיות‪ ,‬אובייקטים או מאורעות לפי סדר מסוים‬
‫(לדוגמה‪ :‬רמת השכלה [יסודית‪/‬תיכונית‪/‬אקדמית]‪ ,‬סדר ההגעה לקו הסיום בתחרות ריצה‪ ,‬פריט בשאלון‬
‫שעבורו הנסדק מסמן ערך בין ‪ .)1-5‬הניתוח הסטטיסטי ייעשה בד"כ* באמצעות מדדים הקשורים בסדר –‬
‫מאונים‪ ,‬חציון‪ ,‬סטיות מהחציון‪.‬‬

‫סולם רווח – אינטרוולי (‪ – )interval scale‬בסולם זה נתייחס לא רק לסדר בין ערכים שונים‪ ,‬אלא גם‬
‫להפרשים ביניהם‪ ,‬קיימת יחידת מדידה קבועה ואפשר למדוד באמצעותה הפרשים‪ .‬בסולם זה נקודת‬
‫האפס נקבעה באופן שרירותי ואינה מציינת אפס כמות (לדוגמה‪ :‬טמפרטורה)‪ .‬הניתוח הסטטיסטי יכול‬
‫להיעשות באמצעות כל סוגי הסטטיסטים‪.‬‬

‫סולם מנה (‪ – )ratio scale‬בסולם זה לא נתייחס רק לסדר ולהפרש בין הערכים‪ ,‬אלא גם ליחס ביניהם‪.‬‬
‫בסולם זה נקודת האפס מציינת אפס כמות (לדוגמה‪ :‬משתנים פיזיקליים – אורך‪ ,‬שטח‪ ,‬נפח‪ ,‬משקל)‪.‬‬
‫הניתוח הסטטיסטי יכול להיעשות באמצעות כל סוגי הסטטיסטים‪.‬‬

‫הניתוח הסטטיסטי נעשה על מספרים‪ ,‬אולם האופן שבו מפיקים מספרים אלה אינה קשורה‬ ‫•‬
‫לסטטיסטיקה‪.‬‬
‫רוב הניתוח הסטטיסטי מתבצע לפי סטטיסטים ופרמטרים המתאימים לסולם רווח ומנה‪ ,‬גם אם‬ ‫•‬
‫המשתנים הרלוונטיים נמדדים בסולם סדר‪.‬‬
‫הניתוח הסטטיסטי צריך להיות בעל משמעות‪ ,‬אך לא חייב להיגזר בהכרח מסולם המדידה‪.‬‬ ‫•‬
‫מדדי קשר‬

‫מדדי קשר מתעסקים במידת הקשר בין משתנים שונים‪.‬‬


‫מתאמים – אומדנים (סטטיסטיים) לעוצמת קשר‪.‬‬
‫הבחירה בסוד מדד הקשר לבחירה בממד מרכז‪/‬פיזור וקשורה בסוג המשתנים‪ ,‬בקשר התאורטי ביניהם‬
‫ובאופי הניתוח הסטטיסטי‪ .‬לרוב‪ ,‬המשתנה בעל סולם המדידה הנמוך יותר ישפיע יותר על הבחירה‪.‬‬

‫מתאם פירסון‪:‬‬

‫מדד סטטיסטי המשמש אומדן למתאם באוכלוסייה (לא של תצפית בודדת)‪.‬‬


‫בודק קשר ליניארי בין המשתנים באמצעות מספר 𝟏 ≤ 𝒓 ≤ 𝟏‪( −‬לא רלוונטי למקרים בהם הקשר אינו‬
‫ליניארי)‬

‫הסימן יצביע על כיוון הקשר (חיובי או שלילי) ולא על סיבתיות‪.‬‬ ‫•‬


‫הערך המוחלט יצביע על עוצמת הקשר – ככל שהערך גדול יותר כך הקשר חזק יותר‪.‬‬ ‫•‬
‫מתאם ‪ 0‬יצביע על חוסר קשר ליניארי (ולא על חוסר קשר)‪.‬‬ ‫•‬
‫טרנספורמציה ליניארית בעלת ‪ 𝑏 > 0‬על אחד המשתנים או שניהם לא משנה את ערך המתאם‪,‬‬ ‫•‬
‫טרנספורמציה ליניארית בעלת ‪ 𝑏 < 0‬על אחד מהמשתנים תשנה את הסימן בלבד‪.‬‬
‫מושפע מערכים קיצוניים (משום שהוא מבוסס על הממוצע וסטיית התקן אשר מושפעםי מערכים‬ ‫•‬
‫קיצוניים)‪.‬‬
‫אם באחד מהמשתנים סטיית התקן שווה ל‪ ,0-‬המתאם בין שני המשתנים יהיה שווה גם ל‪.0-‬‬ ‫•‬

‫דיאגרמת הפיזור של המשתנים (‪ – )scatter plot‬כל אחד מהצירים (‪ )X,Y‬מבטא משתנה אחר‪ ,‬כל נקודה‬
‫על הגרף מבטאת תצפית במדגם‪.‬‬

‫במדגם בו יש ‪ N‬תצפיות‪ ,‬אשר לכל אחת מהן ערך בשני משתנים (‪ )X,Y‬נמיר את הערכים לציון תקן בכל‬
‫𝒚𝒁∗ 𝒙𝒁‬
‫∑ = 𝒚𝒙𝒓‬ ‫אחד מהמשתנים בנפרד‪ .‬מתאם פירסון למדגם זה‪:‬‬
‫𝑵‬

‫מתאם פירסון יהיה שווה לממוצע מכפלות ציוני התקן בשני המשתנים‪.‬‬

‫הגרף מציין את חלוקת ציוני התקן‪.‬‬

‫ברביע הראשון יהיו התצפיות בהן שני ציוני התקן יהיו חיוביים (מעל הממוצע)‬ ‫•‬
‫ברביע השני תצפיות בהן אחד מהציונים גבוה מהממוצע ואחד נמוך‬ ‫•‬
‫ברביעי השלישי תצפיות בהן שני ציוני התקן מתחת לממוצע‬ ‫•‬
‫ברביע הרביעי תצפיות בהן אחד מהציונים נמוך מהממוצע ואחד גבוה (הופכי לרביע השני)‪.‬‬ ‫•‬

‫המתאם יהיה חיובי כאשר רוב התצפיות יהיו ברביע הראשון או בשלישי (שתי התצפיות גבוהות‪/‬נמוכות‬
‫מהממוצע)‪ ,‬המתאם יהיה שלילי כאשר רוב התצפיות יהיו ברביע השני או ברביעי (אחת מהתצפיות נמוכה‬
‫מהממוצע והשנייה גבוהה מהממוצע)‪.‬‬
‫חישוב מתאם על פי ציוני גלם –‬

‫̅𝑦 ‪𝑥 − 𝑥̅ 𝑦 −‬‬
‫)̅𝐲 ‪∑ 𝑍𝑥 ∙ 𝑍𝑦 ∑( 𝑠𝑥 )( 𝑠𝑦 ) ∑(𝐱 − 𝐱̅)(𝐲 −‬‬
‫𝑦𝑥𝑟‬ ‫=‬ ‫=‬ ‫=‬
‫𝑁‬ ‫𝑁‬ ‫𝐲𝐒 𝐱𝐒𝐍‬

‫שונות משותפת (‪ – )covariance‬סטטיסטי המבטא את הקשר בין המשתנים (‪ .)X,Y‬יכול להיות כל מספר‬
‫(ולכן לא ניתן להשוות בין שונויות משותפות שונות)‪.‬‬

‫)̅𝑦 ‪∑(𝑥 − 𝑥̅ )(𝑦 −‬‬


‫𝑁‬
‫מתאם ספירמן‪:‬‬

‫בודק עד כמה הקשר בין המשתנים הוא מונוטוני (כאשר משתנה אחד עולה – השני עולה בהתאמה ולהפך)‪.‬‬

‫כל פונקציה ליניארית היא מונוטונית – אך לא להיפך‪.‬‬

‫סולם המדידה של המשתנים (או של אחד מהם) הוא סולם סדר – לא יהיה משמעות לחישוב‬ ‫•‬
‫ממוצע וסטיית תקן ואין משמעות לקשר ליניארי‪.‬‬
‫כאשר הקשר הוא אינו קשר ליניארי‪.‬‬ ‫•‬

‫הקשר בין הדירוגים יכול להיות ליניארי גם כאשר הקשר בין המשתנים אינו ליניארי‪.‬‬

‫על מנת לחשב מתאם ספירמן‪ ,‬נהפוך את ציוני הגלם בשני המשתנים לדירוגים ולאחר מכן נחשב מתאם‬
‫פירסון בין הדירוגים‪.‬‬
‫לדוגמה‪:‬‬

‫נדרג את ערכי ה‪( X‬גיל) על פי סולם סדר עולה וכן את ערכי ה‪( Y‬ציון זכרון) על פי סולם סדר עולה‪.‬‬

‫בערכי ה‪ ,Y‬בהם יש שני ערכים זהים (‪ ,)12‬הערך של כל אחד מהם יהיה הממוצע בין שני המקומות‬
‫אותם הם יתפסו בסולם הסדר (‪ – 2.5‬ממוצע בין המקום ה‪ 2‬וה‪.)3-‬‬

‫̅̅̅̅̅̅̅̅̅ ‪∑(𝑹𝒂𝒏𝒌𝒙 −‬‬


‫̅̅̅̅̅̅̅̅̅ ‪𝑹𝒂𝒏𝒌𝒙 ) ∙ (𝑹𝒂𝒏𝒌𝒚 −‬‬
‫) 𝒚𝒌𝒏𝒂𝑹‬
‫= 𝑦𝑘𝑛𝑎𝑅 𝑥𝑘𝑛𝑎𝑅𝑟 = 𝑠𝑟‬ ‫‪= −.76‬‬
‫𝒚𝒌𝒏𝒂𝑹𝑺 ∙ 𝒙𝒌𝒏𝒂𝑹𝑺 ∙ 𝑁‬
‫מתאם קרמר‪:‬‬

‫מתאים למשתנים קטגוריאליים (סולם שמי)‪.‬‬

‫חישוב ‪( 𝑋 2‬האות היוונית "חי" בריבוע) – מושפע מגודל המדגם ומספר התאים בטבלה (‪.)𝑋 2 ≥ 0‬‬

‫‪(𝑂𝑏𝑠 − 𝐸𝑥𝑝)2‬‬
‫∑ = ‪𝜒2‬‬
‫𝑝𝑥𝐸‬

‫חישוב מתאם קרמר – (מספר בין ‪ 0‬ל‪ – 1-‬ישר קשר‪/‬קשר מלא)‬

‫‪𝜒2‬‬
‫√ = 𝑉 𝑠 ‪𝐶𝑟𝑎𝑚𝑒𝑟 ′‬‬
‫)‪𝑁(𝑘 − 1‬‬

‫‪ N‬הוא גודל המדגם‪ k ,‬הוא המספר הקטן מבין מספר הטורים או מספר השורות‪.‬‬

‫דוגמה‪:‬‬

‫נבדק הקשר בין קיומו של דיכאון אחרי לידה לבין מספר הלידה במשפחה (ראשונה‪ ,‬שניה‪ ,‬שלישית‬
‫ומעלה)‪ .‬נאספו הנתונים הבאים אודות ‪ 100‬יולדות‪.‬‬

‫‪observed‬‬
‫דיכאון ‪ -‬דיכאון ‪+‬‬ ‫סה"כ‬
‫לידה ‪1‬‬ ‫‪10‬‬ ‫‪35‬‬ ‫‪45‬‬
‫לידה ‪2‬‬ ‫‪5‬‬ ‫‪25‬‬ ‫‪30‬‬
‫לידה ‪+3‬‬ ‫‪5‬‬ ‫‪20‬‬ ‫‪25‬‬
‫סה"כ‬ ‫‪20‬‬ ‫‪80‬‬ ‫‪100‬‬

‫‪expected‬‬
‫דיכאון ‪ -‬דיכאון ‪+‬‬ ‫סה"כ‬
‫לידה ‪1‬‬ ‫‪45 ∗ 20‬‬
‫‪100‬‬
‫‪=9‬‬
‫‪45 ∗ 80‬‬
‫‪100‬‬
‫‪= 36‬‬ ‫‪45‬‬
‫לידה ‪2‬‬ ‫‪30 ∗ 20‬‬
‫‪100‬‬
‫‪=6‬‬
‫‪30 ∗ 20‬‬
‫‪100‬‬
‫‪= 24‬‬ ‫‪30‬‬
‫לידה ‪+3‬‬ ‫‪25 ∗ 20‬‬
‫‪100‬‬
‫‪=5‬‬
‫‪25 ∗ 80‬‬
‫‪100‬‬
‫‪= 20‬‬ ‫‪25‬‬
‫סה"כ‬ ‫‪20‬‬ ‫‪80‬‬ ‫‪100‬‬

‫טבלת ‪ – observed‬מתארת את הנתונים שנאספו במדגם‪.‬‬

‫טבלת ‪ – expected‬באמצעותה נלמד על העוצמת הקשר בין המשתנים‪ .‬טבלה הנבנית במכוון בה אין‬
‫קשר בין המשתנים‪ .‬נבלה את הטבלה בהנחה של אי תלות (חוסר קשר) בה )𝐵(𝑃 ∙ )𝐴(𝑃 = )𝐵 ∩ 𝐴(𝑃‬

‫ככל שההבדל בין הטבלאות גדול יותר (ההבדל בין מצב של חוסר קשר גדול יותר) כך קיים יותר‬
‫קשר בין הנתונים‪.‬‬

‫‪(10 − 9)2 (35 − 36)2 (5 − 6)2‬‬ ‫‪(20 − 20)2‬‬


‫= ‪𝜒2‬‬ ‫‪+‬‬ ‫‪+‬‬ ‫‪+⋯+‬‬ ‫‪= .35‬‬
‫‪9‬‬ ‫‪36‬‬ ‫‪6‬‬ ‫‪20‬‬

‫‪𝜒2‬‬ ‫‪. 35‬‬


‫√ = 𝑐𝑟 = 𝑉 𝑠 ‪𝐶𝑟𝑎𝑚𝑒𝑟 ′‬‬ ‫√=‬ ‫‪= .06‬‬
‫)‪𝑁(𝑘 − 1‬‬ ‫‪100 ∙ 1‬‬

You might also like