You are on page 1of 32

‫סיכום בסטטיסטיקה ב'‬

‫סיכום כללי‬

‫במידה והערך הנבדק‪/‬הנצפה מצוי "מספיק רחוק" ממוצע ההתפלגות (ימינה או שמאלה) ניתן לשער‬
‫(בהסתברות גבוהה) כי איננו שייך להתפלגות הנוכחית‪ ,‬וככל הנראה משתייך להתפלגות אחרת (בעלת‬
‫ממוצע גדול יותר או קטן יותר‪ ,‬בהתאם להשערות והממצאים)‪.‬‬

‫מדד המחושב מהאוכלוסייה מכונה פרמטר‪.‬‬


‫מדד המחושב מהמדגם מכונה סטטיסטי‪.‬‬

‫התפלגות‬
‫הדגימה של ממוצעים‬
‫נדמיין כי אנו דוגמים מדגמים רבים (אינסוף) בגודל זהה‪ ,‬ומחשבים ממוצע (סטטיסטי) עבור כל מדגם‪.‬‬
‫במקרה זה נקבל התפלגות של ממוצעים (סטטיסטיים) יחסית קרובים לתוחלת (פרמטר) האוכלוסייה –‬
‫כלומר‪ ,‬פיזור (שונות) ממוצעי המדגמים סביב תוחלת האוכלוסייה יחסית קטן‪.‬‬
‫ככל שהמדגמים גדולים יותר פיזור (שונות) הממוצעים קטן יותר (ולהיפך)‪.‬‬

‫השונות‪/‬סטיית‪-‬התקן (טעות‪-‬התקן) של ממוצעי התפלגות הדגימה‪:‬‬


‫סטיית התקן של התפלגות הדגימה מכונה "טעות‪-‬התקן"‪ .‬ניתן לראות כי ככל שגודל המדגם גדל טעות‬
‫התקן של התפלגות הדגימה קטנה‪.‬‬
‫‪ ‬דגימה של ממוצעים טעות‪-‬התקן מסומנת ‪‬‬ ‫התפלגות‬
‫‪X‬‬ ‫כאשר מדובר על‬
‫‪2‬‬
‫‪σx σx‬‬
‫‪2‬‬
‫‪ - σ x‬השונות באוכלוסייה)‬ ‫(‬
‫=‪σ X‬‬ ‫‪√σ‬‬ ‫‪2‬‬
‫=‪X‬‬
‫√‬ ‫=‬
‫‪n √n‬‬ ‫חישוב‪:‬‬

‫תכונות חשובות של התפלגות הדגימה‪:‬‬


‫)‪.‬‬
‫‪ ) μ X‬תמיד שווה לתוחלת של האוכלוסייה ( ‪μ x‬‬ ‫תוחלת ממוצעי התפלגות הדגימה (‬ ‫‪.1‬‬
‫התפלגות הדגימה של הממוצעים תתפלג נורמלית כאשר‪:‬‬ ‫‪.2‬‬
‫א‪ .‬התפלגות האוכלוסייה מתפלגת נורמלית (שכן התפלגות הדגימה היא קומבינציה‬
‫ליניארית של משתנה המתפלג נורמלית)‪.‬‬
‫ב‪ .‬ע"פ משפט הגבול המרכזי ‪ -‬כאשר גודל המדגם גדול או שווה ל‪ )n≥30( 30-‬התפלגות‬
‫הדגימה תתפלג נורמלית בקירוב‪ ,‬גם אם הנתונים באוכלוסייה אינם מתפלגים נורמלית‪.‬‬

‫סיכום תהליך ההסקה סטטיסטית באמצעות התפלגות הדגימה של ממוצעים‬


‫‪1‬‬
‫למעשה בתהליך ההסקה אנו דוגמים מדגם (לרוב‪ )n>1 ,‬מתוך התפלגות האוכלוסייה‪ ,‬ובאמצעותו‬
‫(מדגם בודד) אנו מכללים‪/‬מסיקים על האוכלוסייה – למעשה בודקים האם סטטיסטי המדגם (למשל‪,‬‬
‫ממוצע המדגם)‪" ,‬נופל" באזור הדחייה או האי‪-‬דחייה של התפלגות הדגימה (התפלגות תיאורטית‬
‫המייצגת אינסוף ממוצעים הנלקחים מהתפלגות האוכלוסייה)‪.‬‬

‫מבחן ‪ z‬לממוצע יחיד‬


‫מתי? בדיקת השערות לגבי תוחלת של אוכלוסייה אחת‪ ,‬כאשר שונות‪/‬סטיית‪-‬התקן באוכלוסייה‬
‫ידועות‪ .‬נקראת גם התפלגות נורמלית סטנדרטית‪.z-‬‬

‫מטרת המבחן‪ :‬לבדוק האם סטטיסטי המדגם (ממוצע) שייך להתפלגות האוכלוסייה הידועה‬
‫(מכונה ‪ .)H0‬במידה והתשובה שלילית (הסטטיסטי "נופל" באזור הדחייה) ניתן להסיק (ברמת‬
‫סיכון‪/‬מובהקות שנקבעה טרם המבחן – אלפא) כי ככל הנראה המדגם אינו שייך לאוכלוסייה הנבדקת (‬
‫‪ ,)H0‬אלא לאוכלוסייה אחרת (מכונה ‪ )H1‬בעלת הממוצע שונה‪.‬‬

‫שלבי המבחן‪:‬‬
‫שלב ‪ -1‬ניסוח השערות‪:‬‬
‫בשלב זה יש לנסח את כיוון השערות המחקר‪ .‬שימו לב כי סימן השווה תמיד מופיע ב‪ ,H0 -‬וכי ההשערות‬
‫המבחן ממצות ומוציאות‪.‬‬
‫חד כיווני ימני‪/‬חיובי‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≤ ‪H 0 :μ‬‬
‫‪x‬‬
‫__>‪H 1 :μ x‬‬ ‫מימין ל‪.)H0-‬‬
‫דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין או‬ ‫‪‬‬
‫__= ‪H 0 :μ‬‬
‫‪x‬‬
‫__≠ ‪H 1 :μ‬‬
‫‪x‬‬ ‫משמאל ל‪.)H0-‬‬

‫‪2‬‬
‫חד כיווני שמאלי‪/‬שלילי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≥ ‪H 0 :μ‬‬
‫‪x‬‬
‫__<‪H 1 :μ x‬‬ ‫משמאל ל‪.)H0-‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי האוכלוסייה‪:‬‬ ‫‪.1‬‬
‫א‪ .‬המשתנה באוכלוסייה מתפלג נורמלית (במידה וזה נתון‪/‬ידוע)‪.‬‬
‫__= ‪μ‬‬
‫‪x‬‬ ‫ב‪ .‬תוחלת האוכלוסייה (‪- )H0‬‬
‫ג‪ .‬השונות באוכלוסייה ידועה ‪-‬‬
‫הנחות לגבי אופן הדגימה והמדגם‪:‬‬ ‫‪.2‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫ב‪ .‬גודל המדגם הוא __=‪.n‬‬
‫___=‪X‬‬ ‫ג‪ .‬ממוצע המדגם (סטטיסטי המדגם) הוא‬
‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.3‬‬
‫א‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫ב‪ .‬בהנחה כי ‪ H0‬נכונה‪:‬‬
‫הדגימה היא (אומד חסר הטיה)‪.‬‬ ‫תוחלת התפלגות‬ ‫‪)1‬‬
‫היא‪-‬‬ ‫טעות התקן‬ ‫‪)2‬‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫אלפא‪ ,‬ערך קריטי ואזורי דחייה ואי‪-‬דחייה‪.‬‬
‫רמת הסיכון (אלפא ‪ - )α‬מייצגת את רמת הסיכון האפריורית (מראש) שהחוקר מוכן לקחת‪.‬‬ ‫‪.4‬‬
‫כלומר‪ ,‬ההסתברות שהחוקר ידחה בטעות את ‪( H0‬יניח כי הממוצע שייך ל‪ ,)H1-‬כאשר למעשה‬
‫‪ H0‬נכונה (ממוצע המדגם שייך ל‪ .)H0-‬טעות זו מכונה טעות מסוג ‪.I‬‬
‫ככל שהאלפא יותר קטנה‪ ,‬כך ההסתברות לדחות את ‪ H0‬קטנה‪ ,‬וכך גם ההסתברות לטעות מסוג‬
‫‪ I‬קטנה‪.‬‬
‫ערך קריטי (‪ - )Zc‬בהתאם לאלפא מוצאים את הערך הקריטי המתאים (בטבלה המתאימה‪,‬‬ ‫‪.5‬‬
‫למשל במבחן ‪ Z‬משתמשים בנורמלית)‪ ,‬ובהתאם לערך הקריטי וכיוון ההשערות מגדירים אזורי‬
‫אי‪-‬דחייה ודחייה‪.‬‬
‫אזורי דחייה ואי‪-‬דחייה‪:‬‬ ‫‪.6‬‬
‫א‪ .‬חד כיווני ימני‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫מימין ל‪.)H0-‬‬
‫‪Z X≥ Z c‬‬ ‫אזור דחייה‪( -‬תמיד עם סימן ה =)‬ ‫‪‬‬
‫‪Z X< Z c‬‬
‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫ב‪ .‬דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין‬
‫או משמאל ל‪.)H0-‬‬
‫אזור דחייה‪ -‬הערך הקריטי נקבע ע"פ חלוקת האלפא לשתיים‬ ‫‪‬‬
‫‪Z X≤− Z c‬‬ ‫או‬
‫‪Z X≥ Z c‬‬
‫‪3‬‬
‫‪− Z c< Z X< Z‬‬ ‫אזור האי‪-‬דחייה‪-‬‬
‫‪c‬‬ ‫‪‬‬
‫ג‪ .‬חד כיווני שמאלי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫משמאל ל‪.)H0-‬‬
‫‪Z X≤− Z c‬‬ ‫אזור דחייה‪-‬‬ ‫‪‬‬
‫‪Z X>− Z c‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן‪:‬‬


‫חישוב ציון התקן של סטטיסטי‪/‬ממוצע המדגם‪.‬‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫השוואת סטטיסטי המבחן לערך הקריטי‪( .‬היכן סטטיסטי המבחן "נופל"? באזור הדחייה או האי‪-‬דחייה?)‬
‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬מסקנה מילולית‪:‬‬


‫הניסוח תמיד ביחס ל‪!!!H0-‬‬
‫חד כיווני ימני‪/‬חיובי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם קטן או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו קטן או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬

‫דו כיווני‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו‪-‬שווה לתוחלת האוכלוסייה‬ ‫‪o‬‬

‫חד כיווני שמאלי‪/‬שלילי‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם גדול או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו גדול או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬

‫מבחן ‪ t‬לממוצע יחיד‬

‫מתי? בדיקת השערות לגבי תוחלת של אוכלוסייה אחת‪ ,‬כאשר שונות‪/‬סטיית‪-‬התקן באוכלוסייה‬
‫אינן ידועות‪ .‬נקראת גם התפלגות ‪.t‬‬

‫מטרת המבחן‪ :‬ההבדלים בין מבחן ‪ z‬למבחן ‪ t‬נובעים מעצם העובדה שהשונות באוכלוסייה איננה‬
‫ידועה וצריך לאמוד אותה בהתבסס על המדגם‪.‬‬

‫‪4‬‬
‫מדוע צריך את השונות‪/‬סטיית התקן באוכלוסייה? למעשה בכדי לחשב את סטטיסטי המבחן (ציון התקן‬
‫של סטטיסטי‪/‬ממוצע המדגם) ולבחון היכן הוא נופל (באזור האי‪-‬דחייה או הדחייה)‪.‬‬

‫האומדן‪:‬‬
‫את האומדן לשונות‪/‬סטיית התקן באוכלוסייה נהוג לסמן "בכובע"‪ -‬האומדן לסטיית התקן‬ ‫‪‬‬
‫↔^‪σ‬‬ ‫^‬
‫‪x Sx‬‬ ‫באוכלוסייה‬
‫חישוב האומדן לשונות‪/‬סטיית‪-‬התקן באוכלוסייה ע"פ המדגם (מגודל ‪:)n‬‬ ‫‪‬‬
‫‪n‬‬
‫= ^‪σ‬‬
‫⋅‪x S‬‬
‫‪x‬‬
‫√‬ ‫‪n− 1‬‬

‫דרגות החופש ( ‪:)Degrees of Freedom- df‬‬


‫בתהליך ההסקה הנוכחי (מבחן ‪ t‬לממוצע יחיד) השתמשנו ב‪ n-‬תצפיות המדגם‪ ,‬הן לחישוב‬ ‫‪‬‬
‫ממוצע המדגם (על מנת להסיק על תוחלת האוכלוסייה – מטרתנו המקורית) והן לאמוד את‬
‫סטיית‪-‬התקן של האוכלוסייה (על מנת לחשב את טעות התקן וסטטיסטי המבחן)‪ .‬למעשה נוצר‬
‫מצב בו אותן התצפיות משמשות לאמידה כפולה (ממוצע וסטיית תקן)‪ .‬לאמידה כפולה זו יש‬
‫מחיר בדמות של אובדן דרגת חופש אחת‪ ,‬כלומר מתוך ‪ n‬התצפיות‪ ,‬כעת רק ‪ n-1‬יכולות‬
‫להשתנות באופן "חופשי" בהתאם לאילוצי המבחן‪.‬‬
‫הפיזור (סטיית‪-‬התקן) בהתפלגויות ‪ t‬הוא יותר גדול‪ ,‬והוא תלוי במספר דרגות החופש (‪)df‬‬ ‫‪‬‬
‫של ההתפלגות‪ .‬ככל שיש יותר דרגות חופש (מדגם יותר גדול) סטיית התקן בהתפלגויות ‪t‬‬
‫קטנה (ההתפלגות יותר צרה) והיא הופכת דומה יותר להתפלגות ‪.z‬‬
‫סביב ‪ 120‬דרגות חופש התפלגות ‪ t‬הופכת להיות נורמלית בקירוב (‪ ,)z‬וב"אינסוף" דרגות‬ ‫‪‬‬
‫חופש (דגימת כל האוכלוסייה) התפלגות ‪ t‬זהה להתפלגות ‪.z‬‬
‫זאת ניתן להסביר ע"פ חוק המספרים הגדולים‪ :‬גם במקרה זה (בדומה לדגימת ממוצע) ככל‬ ‫‪‬‬
‫‪2‬‬
‫שנבחר מדגם גדול יותר כך נבטיח ששנות המדגם ( ‪ ) S x‬תהיה קרובה‪/‬דומה יותר לשונות‬
‫‪2‬‬
‫האוכלוסייה ( ‪ .) σ x‬כלומר האומד שלנו לשונות האוכלוסייה יהיה דומה יותר לשונות האמתית‬
‫באוכלוסייה‪ .‬מדגם סביב ‪ 120‬תצפיות משקף (בהסתברות גבוהה) שונות מאד דומה לזו‬
‫באוכלוסייה ("כאילו השונות ידועה")‪.‬‬

‫שלבי המבחן‪:‬‬
‫שלב ‪ -1‬ניסוח השערות‪ :‬זהה לשלב ‪ 1‬במבחן ‪ Z‬לממוצע יחיד‪.‬‬
‫בשלב זה יש לנסח את כיוון השערות המחקר‪ .‬שימו לב כי סימן השווה תמיד מופיע ב‪ ,H0 -‬וכי ההשערות‬
‫המבחן ממצות ומוציאות‪.‬‬
‫חד כיווני ימני‪/‬חיובי‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≤ ‪H 0 :μ‬‬
‫‪x‬‬
‫__>‪H 1 :μ x‬‬ ‫מימין ל‪.)H0-‬‬
‫דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין או‬ ‫‪‬‬
‫__= ‪H 0 :μ‬‬
‫‪x‬‬
‫__≠ ‪H 1 :μ‬‬
‫‪x‬‬ ‫משמאל ל‪.)H0-‬‬

‫‪5‬‬
‫חד כיווני שמאלי‪/‬שלילי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≥ ‪H 0 :μ‬‬
‫‪x‬‬
‫__<‪H 1 :μ x‬‬ ‫משמאל ל‪.)H0-‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי האוכלוסייה‪:‬‬ ‫‪.7‬‬
‫א‪ .‬המשתנה באוכלוסייה מתפלג נורמלית (במידה וזה נתון‪/‬ידוע)‪.‬‬
‫__= ‪μ‬‬
‫‪x‬‬ ‫ב‪ .‬תוחלת האוכלוסייה (‪- )H0‬‬
‫ג‪ .‬השונות באוכלוסייה איננה ידועה (בשונה ממבחן ‪)Z‬‬
‫הנחות לגבי אופן הדגימה והמדגם‪:‬‬ ‫‪.8‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫ב‪ .‬גודל המדגם הוא __=‪.n‬‬
‫___=‪X‬‬ ‫ממוצע המדגם (סטטיסטי המדגם) הוא‬ ‫ג‪.‬‬
‫בשונה ממבחן ‪ – z‬ע"פ סטיית התקן במדגם‬
‫=‪S‬‬
‫___‬
‫‪x‬‬ ‫סטיית התקן במדגם היא‬ ‫ד‪.‬‬

‫)‬
‫אומדים את סטיית התקן באוכלוסייה ( ‪σ^ x‬‬
‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.9‬‬
‫ג‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫ד‪ .‬בהנחה כי ‪ H0‬נכונה‪:‬‬
‫הדגימה היא (אומד חסר הטיה)‪.‬‬ ‫תוחלת התפלגות‬ ‫‪)1‬‬

‫טעות התקן היא‪-‬‬ ‫‪)2‬‬


‫‪n‬‬
‫= =‪σ^ X‬‬
‫‪√n‬‬ ‫‪√n‬‬
‫√‬
‫‪σ^ x S ⋅x n− 1‬‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫אלפא‪ ,‬ערך קריטי ואזורי דחייה ואי‪-‬דחייה‪.‬‬
‫רמת הסיכון (אלפא ‪ – )α‬זהה למבחן ‪Z‬‬ ‫‪.10‬‬
‫קביעת ערך ‪ t‬קריטי‪ -‬בהתאם לרמת הסיכון‬ ‫‪.11‬‬
‫אזורי דחייה ואי‪-‬דחייה‪:‬‬ ‫‪.12‬‬
‫א‪ .‬חד כיווני ימני‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫מימין ל‪.)H0-‬‬
‫≥‪t‬‬
‫‪x tc‬‬ ‫אזור דחייה‪( -‬תמיד עם סימן ה =)‬ ‫‪‬‬
‫‪t x< t c‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fd = n− 1‬‬
‫דרגות חופש‬ ‫‪‬‬
‫ב‪ .‬דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין‬
‫או משמאל ל‪.)H0-‬‬
‫‪6‬‬
‫אזור דחייה‪ -‬הערך הקריטי נקבע ע"פ סוג ההתפלגות (חד צדדית או דו"צ)‬ ‫‪‬‬
‫‪t≤−‬‬
‫‪x‬‬ ‫‪tc‬‬ ‫או‬
‫≥‪t‬‬
‫‪x tc‬‬

‫‪− t c< t x< tc‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬


‫‪fd = n− 1‬‬
‫דרגות חופש‬ ‫‪‬‬
‫ג‪ .‬חד כיווני שמאלי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫משמאל ל‪.)H0-‬‬
‫‪t≤−‬‬
‫‪x‬‬ ‫‪tc‬‬ ‫אזור דחייה‪-‬‬ ‫‪‬‬
‫‪t x>− tc‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fd = n− 1‬‬ ‫דרגות חופש‬ ‫‪‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן‪:‬‬


‫‪x− μ x‬‬
‫=‪t‬‬
‫‪x‬‬
‫‪σ^ x‬‬ ‫חישוב ציון התקן של סטטיסטי‪/‬ממוצע המדגם‪-‬‬

‫שלב ‪ -5‬קבלת החלטה‪ :‬זהה לשלב ‪ 5‬במבחן ‪ Z‬לממוצע יחיד‪.‬‬


‫השוואת סטטיסטי המבחן לערך הקריטי‪( .‬היכן סטטיסטי המבחן "נופל"? באזור הדחייה או האי‪-‬דחייה?)‬
‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬מסקנה מילולית‪ :‬זהה לשלב ‪ 6‬במבחן ‪ Z‬לממוצע יחיד‪.‬‬


‫הניסוח תמיד ביחס ל‪!!!H0-‬‬
‫חד כיווני ימני‪/‬חיובי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם קטן או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו קטן או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬

‫דו כיווני‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו‪-‬שווה לתוחלת האוכלוסייה‬ ‫‪o‬‬
‫חד כיווני שמאלי‪/‬שלילי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה ממוצע המדגם גדול או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע המדגם אינו גדול או שווה לתוחלת האוכלוסייה‪.‬‬ ‫‪o‬‬

‫אמידה מרווחית‪ -‬רווח סמך‬

‫מתי? אמידה לגבי תוחלת של אוכלוסייה אחת‪ ,‬כאשר שונות‪/‬סטיית‪-‬התקן באוכלוסייה ידועות‬
‫ואינן‪-‬ידועות (מצב גם של התפלגות ‪ z‬וגם של התפלגות ‪.)t‬‬

‫מטרת המבחן‪:‬‬

‫‪7‬‬
‫ישנם מקרים בהם אנו לא יודעים מהו הפרמטר (התוחלת) באוכלוסייה‪ ,‬ובאמצעות אמידה אנו‬ ‫‪‬‬
‫רוצים לאמוד (להעריך) מהו הפרמטר באוכלוסייה? או מהו השינוי בפרמטר (עקב טיפול כלשהו)?‬
‫באמידה אנו בודקים מהו הפרמטר באוכלוסייה? או בכמה הפרמטר השתנה‪/‬גדל‪/‬קטן?‬ ‫‪‬‬
‫במקרה של אמידה‪ ,‬ההנחה הכללית היא‪" :‬כי העץ אינו נופל רחוק מהתפוח"‬ ‫‪‬‬
‫באמידה‪ ,‬אנו אומדים את התוחלת של האוכלוסייה באמצעות טווח ביטחון (רווח בר סמך)‬ ‫‪‬‬
‫סביב סטטיסטי המדגם (כלומר‪ ,‬באמצעות מדגם אומדים את האוכלוסייה‪ ,‬או את השינוי שחל‬
‫בה)‪.‬‬
‫ניתן לראות כי כל רווח‪-‬סמך (ברמת בטחון ‪ )α-1‬סביב ממוצע של מדגם "הנופל" באזור‬ ‫‪‬‬
‫האי‪-‬דחייה (בבחינת השערות ברמת מובהקות ‪ ,)α‬יכלול את תוחלת האוכלוסייה – כלומר‪ ,‬כל‬
‫רווח‪-‬סמך הכולל את השערת האפס (‪ ,)µ0‬מעיד על תוצאת מבחן לא‪-‬מובהקת (קבלת ‪.)H0‬‬
‫וההיפך ‪ -‬כל רווח‪-‬סמך שאינו כולל את השערת האפס (‪ ,)µ0‬מעיד על תוצאת מבחן מובהקת‬
‫(דחיית ‪.)H0‬‬

‫סוגי אמידה‪:‬‬
‫אמידה דו‪-‬צדדית (רווח‪-‬סמך) – מהו טווח (רווח‪-‬סמך) הפרמטר הנאמד משני צדיו של‬ ‫‪.1‬‬
‫הסטטיסטי‪ ,‬או בכמה יש שינוי בפרמטר של האוכלוסייה (ברמת בטחון ‪.)α -1‬‬
‫‪α‬‬ ‫‪α‬‬
‫(‬ ‫)‬ ‫(‬ ‫)‬
‫‪2‬‬ ‫‪2‬‬
‫≤ ‪p [x− z c ⋅σ‬‬
‫≤‪x μ‬‬
‫=‪x x+ z c ⋅σ x‬‬
‫‪] 1− α‬‬
‫אמידה חד‪-‬צדדית חיובית (חסם תחתון) – מהו הערך הנמוך ביותר (חסם תחתון) של‬ ‫‪.2‬‬
‫הפרמטר באוכלוסייה‪ ,‬או בכמה גדל הפרמטר באוכלוסייה (ברמת בטחון ‪.)α -1‬‬
‫‪p [x− z (αc ⋅σ‬‬
‫)‬
‫=‪x μ x‬‬
‫≤‬ ‫‪] 1− α‬‬
‫אמידה חד‪-‬צדדית שלילית (חסם עליון) – מהו הערך הגבוה ביותר (חסם עליון) של הפרמטר‬ ‫‪.3‬‬
‫באוכלוסייה‪ ,‬או בכמה קטן הפרמטר באוכלוסייה (ברמת בטחון ‪.)α -1‬‬
‫) ‪(α‬‬
‫≤ ‪p [μ‬‬
‫=‪x x+ z c ⋅σ x‬‬
‫‪] 1− α‬‬
‫**באמידה במבחן ‪ ,t‬יש להחליף את ה‪ Z-‬הקריטי ב‪ t-‬קריטי מתאים לפי דרגות חופש‪.‬‬
‫אמידה עבור אוכלוסייה אחת כאשר שונות האוכלוסייה ידועה (התפלגות ‪:)z‬‬
‫אמידה זו זהה לזו שהוצגה ברציונל תהליך האמידה‪ .‬שימו לב‪ ,‬כי מדובר על אמידה של ממוצע יחיד כאשר‬
‫השונות באוכלוסייה ידועה‪ ,‬לכן הנחות האמידה דומות לאלו שהנחנו במבחן ‪ z‬לממוצע יחיד‪.‬‬
‫שלב ‪ -1‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי האוכלוסייה‪:‬‬ ‫‪.13‬‬
‫א‪ .‬סטיית התקן באוכלוסייה ידועה ‪-‬‬
‫והמדגם‪:‬‬ ‫הנחות לגבי אופן הדגימה‬ ‫‪.14‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫ב‪ .‬גודל המדגם הוא __=‪.n‬‬
‫___=‪X‬‬ ‫ג‪ .‬ממוצע המדגם (סטטיסטי המדגם) הוא‬
‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.15‬‬
‫א‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫=‪μ‬‬
‫‪x μx‬‬ ‫תוחלת התפלגות הדגימה היא אומדן בלתי מוטה לתוחלת באוכלוסייה –‬ ‫ב‪.‬‬
‫טעות התקן היא‪-‬‬ ‫ג‪.‬‬

‫‪8‬‬
‫שלב ‪ -2‬האמידה‪:‬‬
‫אמידה דו‪-‬צדדית‪/‬חד‪-‬צדדית חיובית‪/‬שלילית‬ ‫‪.16‬‬
‫__=‪1− α‬‬
‫רמת ביטחון‪-‬‬ ‫‪.17‬‬
‫__=‪α‬‬ ‫רמת סיכון‪-‬‬ ‫‪.18‬‬
‫מציאת ערך של ‪ Z‬קריטי בהתאם לרמת הסיכון‬ ‫‪.19‬‬
‫חישוב האמידה‪ -‬חסם עליון‪/‬תחתון‪/‬רווח בר סמך‬ ‫‪.20‬‬
‫‪α‬‬ ‫‪α‬‬
‫(‬ ‫)‬ ‫(‬ ‫)‬
‫‪2‬‬ ‫‪2‬‬
‫≤ ‪p [x− z c ⋅σ‬‬
‫≤‪x μ‬‬
‫=‪x x+ z c ⋅σ x‬‬
‫‪] 1− α‬‬

‫שלב ‪ -3‬מסקנה‪:‬‬
‫התוחלת של _______ היא בין ______ ל‪ , _______ -‬ברמת בטחון של ____ (דו‪-‬צדדית‪ ,‬רווח בר סמך)‪.‬‬
‫התוחלת של _______ היא לפחות _______‪ ,‬ברמת ביטחון של ___ (חד צדדית חיובית‪ ,‬חסם תחתון)‪.‬‬
‫התוחלת של _______ היא לכל היותר ______‪ ,‬ברמת ביטחון של ___ (חד צדדית שלילית‪ ,‬חסם עליון)‪.‬‬

‫אמידה עבור אוכלוסייה אחת כאשר שונות האוכלוסייה אינה‪-‬ידועה (התפלגות ‪:)t‬‬
‫במקרה של אמידת רווח‪-‬סמך (או חסם עליון‪/‬תחתון) יש לאמוד את השונות באוכלוסייה (במידה ואינה‬
‫ידועה)‪ ,‬ועל כן יש לעבור להתפלגות ‪ t‬עם דרגות החופש (‪ )df‬המתאימות‪ .‬שימו לב‪ ,‬כי מדובר על אמידה‬
‫של ממוצע יחיד כאשר השונות באוכלוסייה איננה ידועה‪ ,‬לכן הנחות האמידה דומות לאלו שהנחנו במבחן‬
‫‪ t‬לממוצע יחיד‪.‬‬

‫שלב ‪ -1‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי אופן הדגימה והמדגם‪:‬‬ ‫‪.21‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫ב‪ .‬גודל המדגם הוא __=‪.n‬‬
‫___=‪X‬‬ ‫ממוצע המדגם (סטטיסטי המדגם) הוא‬ ‫ג‪.‬‬
‫=‪S‬‬
‫___‬
‫‪x‬‬ ‫ד‪ .‬סטיית התקן במדגם היא‬
‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.22‬‬
‫א‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫=‪μ‬‬
‫ב‪ .‬תוחלת התפלגות הדגימה היא אומדן בלתי מוטה לתוחלת באוכלוסייה – ‪x μ x‬‬

‫‪n‬‬
‫= =‪σ^ X‬‬
‫‪√n‬‬
‫√‬
‫‪σ^ x S ⋅x n− 1‬‬
‫‪√n‬‬ ‫טעות התקן היא‪-‬‬ ‫ג‪.‬‬

‫שלב ‪ -2‬האמידה‪:‬‬
‫אמידה דו‪-‬צדדית‪/‬חד‪-‬צדדית חיובית‪/‬שלילית‬ ‫‪.23‬‬
‫__=‪1− α‬‬
‫רמת ביטחון‪-‬‬ ‫‪.24‬‬
‫__=‪α‬‬
‫רמת סיכון‪-‬‬ ‫‪.25‬‬
‫דרגות חופש‪df=n-1 -‬‬ ‫‪.26‬‬
‫מציאת ערך של ‪ T‬קריטי בהתאם לרמת הסיכון ודרגות החופש‬ ‫‪.27‬‬
‫‪9‬‬
‫חישוב האמידה‪ -‬חסם עליון‪/‬תחתון‪/‬רווח בר סמך‬ ‫‪.28‬‬
‫‪α‬‬ ‫‪α‬‬
‫(‬ ‫)‬ ‫(‬ ‫)‬
‫‪2‬‬ ‫‪2‬‬
‫≤ ^‪p [x− tc (n− 1⋅)σ‬‬
‫≤‪x μ‬‬
‫⋅‪x x+ t c (n− 1‬‬
‫=‪) σ x‬‬
‫‪^ ] 1− α‬‬

‫שלב ‪ -3‬מסקנה‪:‬‬
‫התוחלת של _______ היא בין ______ ל‪ , _______ -‬ברמת בטחון של ____ (דו‪-‬צדדית‪ ,‬רווח בר סמך)‪.‬‬
‫התוחלת של _______ היא לפחות _______‪ ,‬ברמת ביטחון של ___ (חד צדדית חיובית‪ ,‬חסם תחתון)‪.‬‬
‫התוחלת של _______ היא לכל היותר ______‪ ,‬ברמת ביטחון של ___ (חד צדדית שלילית‪ ,‬חסם עליון)‪.‬‬

‫מבחן ‪ t‬ואמידה להפרש ממוצעים בלתי‪-‬תלויים‬

‫בדיקת השערות ואמידה לגבי הפרש שתי תוחלות של שתי אוכלוסיות בלתי‪-‬תלויות (מדגמים‬
‫בלתי‪-‬תלויים)‪ ,‬כאשר שונות‪/‬סטיית‪-‬התקן באוכלוסייה אינן‪-‬ידועות (התפלגות ‪.)t‬‬

‫מתי? במקרים מסוג זה נוהגים לדגום שני מדגמים (אחד מכל אוכלוסייה) ולבדוק את ההפרש בין ממוצעי‬
‫המדגמים‪.‬‬

‫סוגי אוכלוסיות‪:‬‬
‫בבחינת המבחן המתאים להפרש ממוצעים יש להבחין בין אוכלוסיות תלויות (כאשר ישנו קשר בין‬
‫המדגמים) ואוכלוסיות ב"ת (כאשר אין קשר בין המדגמים)‪.‬‬
‫מדגמים תלויים‪/‬מזווגים‪ -‬כאשר ישנו קשר משפחתי מדרגה ראשונה בין המדגמים (למשל‪ ,‬בעל‬ ‫‪‬‬
‫ואישה‪ ,‬הורים וילדים‪ ,‬אחים וכו')‪ .‬כאשר אותו פרט (נבדק) נמדד יותר מפעם אחת (למשל‪ ,‬כל‬
‫נבדק ממלא שאלון בבוקר ושאלון בערב) ‪ -‬משתנה תוך נבדקי‪.‬‬
‫מדגמים בלתי‪-‬תלויים‪/‬בלתי‪-‬מזווגים‪ -‬כאשר מדובר על שני מדגמים עם נבדקים שונים (בכל‬ ‫‪‬‬
‫מדגם)‪ ,‬שאינם בעלי קשר משפחתי מדרגה ראשונה (בעל ואישה‪ ,‬הורים וילדים‪ ,‬אחים וכו') ‪-‬‬
‫משתנה בין נבדקי‪.‬‬

‫טעות התקן של התפלגות הדגימה‪:‬‬


‫גם במקרה שלנו‪ ,‬של הפרש ממוצעים בהתפלגות ‪ ,t‬נאמוד את סטיית התקן באוכלוסייה ובאמצעותה‬
‫נחשב את טעות התקן של התפלגות הדגימה‪ .‬רק הפעם במקום להתבסס על מדגם אחד‪ ,‬נאמוד את‬
‫סטיית התקן באוכלוסייה ע"פ שני המדגמים – הרעיון הוא שהאומדן לאוכלוסייה יהיה מדויק יותר ככל‬
‫שהמדגם גדול יותר ("חוק המספרים הגדולים") –‬

‫נקודות חשובות‪:‬‬

‫‪10‬‬
‫בכדי להשתמש בנוסחה לחישוב טעות התקן‪ ,‬יש להניח שוויון שוניות (השונות של‬ ‫‪‬‬
‫המדגמים‪/‬אוכלוסייה שווה – הומוגניות של שוניות)‪.‬‬
‫ה‪ SPSS-‬יודע לחשב את המבחן הנוכחי גם כאשר הנחה זו אינה מתקיימת (אין שוויון‬ ‫‪‬‬
‫שונויות) ‪ -‬אנו לא נלמד את הנוסחה למצב הנ"ל (שהיא קצת שונה וקצת יותר מסובכת מהנוסחה‬
‫שלמדנו)‪ ,‬אך בשאלות ‪ SPSS‬נוכל לבצע את המבחן גם ללא הנחה זו‪.‬‬
‫תמיד נבצע את הבדיקה כך שתהיה לנו תוצאה חיובית‪ -‬נחסר בין הממוצע הגבוה לנמוך‪,‬‬ ‫‪‬‬
‫נבדוק השערות לכיוון ימין‪ ,‬חיוביות‪.‬‬

‫כאשר בוחנים הפרש בין ממוצעים ב"ת‪:‬‬


‫=‪1 μ 2‬‬
‫‪(μ −‬‬ ‫‪) μ (x− x‬‬
‫‪1‬‬ ‫)‪2‬‬ ‫פרמטר (באוכלוסיות)‪-‬‬ ‫‪‬‬
‫‪x−‬‬
‫‪1 x2‬‬ ‫סטטיסטי המדגם‪-‬‬ ‫‪‬‬

‫בהנחה שיש שוויון שוניות טעות‬ ‫‪‬‬


‫התקן‪-‬‬

‫‪1 x 2−‬‬
‫‪(x−‬‬ ‫‪) μ (x − x‬‬
‫)‪2‬‬
‫)= ‪t (x − x‬‬ ‫‪1‬‬
‫‪1‬‬ ‫‪2‬‬ ‫‪σ^ (x − x‬‬
‫‪1‬‬ ‫)‪2‬‬ ‫סטטיסטי המבחן‪-‬‬ ‫‪‬‬
‫‪fd = n 1+ n −‬‬
‫‪2 2‬‬ ‫דרגות חופש‪-‬‬ ‫‪‬‬
‫‪α‬‬ ‫‪α‬‬
‫(‬ ‫)‬ ‫(‬ ‫)‬
‫‪p [(x−‬‬ ‫‪) t c (n2 +n − 2 )¿ σ^ (x − x )¿ μ −‬‬
‫‪1 x 2−‬‬ ‫‪1 μ 2¿ (x −‬‬ ‫‪x 2 )+ t c (n2 + n − 2 )¿ σ^ (x−‬‬ ‫‪] 1− α‬‬
‫=‬
‫‪1‬‬ ‫‪2‬‬ ‫‪1‬‬ ‫‪2‬‬
‫‪1‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪1‬‬
‫)‪x2‬‬
‫רווח סמך‪-‬‬ ‫‪‬‬

‫שלבי המבחן‪:‬‬
‫שלב ‪ -1‬ניסוח השערות‪:‬‬
‫בשלב זה יש לנסח את כיוון השערות המחקר‪ .‬שימו לב כי סימן השווה תמיד מופיע ב‪ ,H0 -‬וכי ההשערות‬
‫המבחן ממצות ומוציאות‪.‬‬
‫חד כיווני ימני‪/‬חיובי‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≤ ‪H 0 :μ‬‬
‫‪x‬‬

‫מימין ל‪.)H0-‬‬ ‫__>‪H 1 :μ x‬‬


‫דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין או‬ ‫‪‬‬
‫__= ‪H 0 :μ‬‬
‫‪x‬‬

‫משמאל ל‪.)H0-‬‬ ‫__≠ ‪H 1 :μ‬‬


‫‪x‬‬

‫חד כיווני שמאלי‪/‬שלילי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫__≥ ‪H 0 :μ‬‬
‫‪x‬‬
‫__<‪H 1 :μ x‬‬ ‫משמאל ל‪.)H0-‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי האוכלוסייה‪:‬‬ ‫‪.29‬‬
‫א‪ .‬המשתנה באוכלוסיות מתפלג נורמלית (במידה וזה נתון‪/‬ידוע)‪.‬‬
‫ב‪ .‬השונות באוכלוסיה שווה (הכרחי רק בחישוב ידני‪ ,‬כשאין ‪)SPSS‬‬
‫‪11‬‬
‫ג‪ .‬סטיית התקן באוכלוסיות איננה ידועה‬
‫הנחות לגבי אופן הדגימה והמדגם‪:‬‬ ‫‪.30‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫ב‪ .‬גודל המדגמים‪__=n1, n2=__ -‬‬
‫‪X−‬‬
‫____‪1 X‬‬
‫=‬
‫‪2‬‬ ‫הפרש ממוצעי המדגמים (סטטיסטי המדגם)‬ ‫ג‪.‬‬
‫=‪S‬‬
‫__= ‪2,__ S‬‬
‫ד‪ .‬סטיית התקן במדגמים‪-‬‬
‫‪1‬‬

‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.31‬‬


‫א‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫ב‪ .‬בהנחה כי ‪ H0‬נכונה‪:‬‬
‫‪μ (x − x=) μ −‬‬
‫=‪1 μ‬‬
‫___‪2‬‬
‫(אומד חסר הטיה)‪.‬‬ ‫‪1‬‬ ‫‪2‬‬ ‫‪)1‬‬
‫‪n 1¿ (s 1 )2+ n 2¿ (s 2 )2 n 1+ n 2‬‬
‫)= ‪σ^ (x − x‬‬
‫‪1‬‬ ‫‪2‬‬
‫√‬ ‫‪n 1+ n −‬‬‫‪2 2‬‬
‫¿‬
‫‪n 1¿n 2‬‬ ‫√‬ ‫טעות התקן היא‪-‬‬ ‫‪)2‬‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫אלפא‪ ,‬ערך קריטי ואזורי דחייה ואי‪-‬דחייה‪.‬‬
‫‪fD‬‬
‫‪( = n 1+ n−‬‬
‫____ ‪2‬‬
‫=‪2‬‬ ‫↔‬
‫=‪) α‬‬
‫___‬ ‫רמת הסיכון (אלפא ‪-)α‬‬ ‫‪.32‬‬
‫) ‪(α‬‬
‫=‪t c (n + n − 2‬‬
‫___‬
‫‪1‬‬‫קביעת ערך ‪ t‬קריטי‪ -‬בהתאם לרמת הסיכון‬
‫)‬‫‪2‬‬ ‫‪.33‬‬
‫אזורי דחייה ואי‪-‬דחייה‪:‬‬ ‫‪.34‬‬
‫א‪ .‬חד כיווני ימני‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫מימין ל‪.)H0-‬‬
‫‪t (x − x ≥) t c‬‬
‫‪1‬‬ ‫‪2‬‬ ‫אזור דחייה‪( -‬תמיד עם סימן ה =)‬ ‫‪‬‬
‫‪t (x − x <) t c‬‬
‫‪1‬‬ ‫‪2‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fD = n 1+ n −‬‬
‫דרגות חופש‬ ‫‪2 2‬‬
‫‪‬‬
‫ב‪ .‬דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין‬
‫או משמאל ל‪.)H0-‬‬
‫אזור דחייה‪ -‬הערך הקריטי נקבע ע"פ סוג ההתפלגות (חד צדדית או דו"צ)‬ ‫‪‬‬
‫‪t (x − x ≤−‬‬
‫)‬ ‫‪tc‬‬ ‫‪t (x − x ≥) t c‬‬
‫‪1‬‬ ‫‪2‬‬ ‫או‬ ‫‪1‬‬ ‫‪2‬‬

‫‪− t c< t (x − x <) t c‬‬


‫‪1‬‬ ‫‪2‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fD = n 1+ n −‬‬
‫דרגות חופש‬ ‫‪‬‬ ‫‪2 2‬‬

‫ג‪ .‬חד כיווני שמאלי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫משמאל ל‪.)H0-‬‬
‫‪t (x − x ≤−‬‬
‫)‬ ‫‪tc‬‬
‫‪1‬‬ ‫‪2‬‬ ‫אזור דחייה‪-‬‬ ‫‪‬‬
‫‪t (x − x >−‬‬
‫)‬ ‫‪tc‬‬
‫‪1‬‬ ‫‪2‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fD = n 1+ n −‬‬
‫‪2 2‬‬ ‫דרגות חופש‬ ‫‪‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן‪:‬‬


‫‪12‬‬
‫‪1 x 2−‬‬
‫‪(x−‬‬ ‫‪) μ (x − x‬‬ ‫)‬
‫)= ‪t (x − x‬‬ ‫‪1‬‬ ‫‪2‬‬
‫‪1‬‬ ‫‪2‬‬ ‫‪σ^ (x − x‬‬
‫‪1‬‬ ‫חישוב ציון התקן של סטטיסטי‪/‬ממוצע המדגם‪-‬‬
‫‪2‬‬
‫)‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫השוואת סטטיסטי המבחן לערך הקריטי‪( .‬היכן סטטיסטי המבחן "נופל"? באזור הדחייה או האי‪-‬דחייה?)‬
‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬מסקנה מילולית‪:‬‬


‫הניסוח תמיד ביחס ל‪!!!H0-‬‬
‫חד כיווני ימני‪/‬חיובי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה ממוצע קבוצה א' קטן או שווה לממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע קבוצה א' אינו קטן או שווה לממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬

‫דו כיווני‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה ממוצע קבוצה א' שווה ממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע קבוצה א' אינו‪-‬שווה לממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬

‫חד כיווני שמאלי‪/‬שלילי‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה ממוצע קבוצה א' גדול או שווה לממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה ממוצע קבוצה א' אינו גדול או שווה לממוצע קבוצה ב'‪.‬‬ ‫‪o‬‬

‫‪13‬‬
‫מבחן ‪ t‬ואמידה להפרש ממוצעים תלויים‬

‫בדיקת השערות ואמידה לגבי הפרש שתי תוחלות של שתי אוכלוסיות תלויות (מדגמים תלויים)‪ ,‬כאשר‬
‫שונות‪/‬סטיית‪-‬התקן באוכלוסייה אינן‪-‬ידועות (התפלגות ‪.)t‬‬

‫מתי?‬
‫כאשר ישנו קשר משפחתי מדרגה ראשונה בין המדגמים (בעל ואישה‪ ,‬הורים וילדים‪ ,‬אחים וכו')‪.‬‬ ‫‪.1‬‬
‫כאשר אותו פרט (נבדק) נמדד יותר מפעם אחת (למשל‪ ,‬כל נבדק ממלא שאלון בבוקר ושאלון‬ ‫‪.2‬‬
‫בערב) ‪ -‬משתנה תוך נבדקי‪.‬‬
‫דוגמא‪ -‬למשל‪ ,‬רוצים לבדוק האם ישנו הבדל במצב הרוח של אנשים בבוקר לעומת הערב‪ .‬על מנת‬
‫לבדוק את השאלה דוגמים ‪ 30‬אנשים ומודדים את מצב רוחם (באמצעות שאלון) בבוקר ובערב ‪ -‬במבחן‬
‫משווים בין ממוצע מצב הרוח בבוקר לזה שבערב‪.‬‬

‫כאשר בוחנים הפרש ממוצעים תלויים יש לקיים את התנאים הבאים‪:‬‬


‫ניצור התפלגות דגימה שמורכבת מהפרשי הממוצעים של ‪ 2‬המדגמים‪ .‬התפלגות זו תקרא‬ ‫‪.1‬‬
‫‪x−‬‬
‫=‪2 x‬‬
‫‪1 d‬‬ ‫התפלגות ‪.d‬‬
‫∑‬ ‫‪d‬‬
‫‪= x−‬‬
‫=‪2 x‬‬
‫‪1 d‬‬
‫‪n‬‬ ‫סטטיסטי (מדגמים)‪ -‬הפרש הממוצעים ‪‬‬
‫מומלץ להחסיר בין המדגם עם הממוצע הגדול למדגם עם הממוצע הקטן כדי לקבל תוצאה‬ ‫‪.2‬‬
‫חיובית ובדיקה בכיוון ימין‪.‬‬
‫‪ ) d‬תהליך המבחן שנבצע דומה לזה שביצענו‬ ‫כעת שאנו עוסקים בהפרש ממוצעים תלויים (‬ ‫‪.3‬‬
‫‪.d‬‬ ‫נשתמש ב‪-‬‬ ‫‪x‬‬ ‫במבחן ‪ t‬לממוצע יחיד (שיעור ‪ - )4‬רק במקום ב‪-‬‬

‫‪14‬‬
‫טעות התקן של התפלגות הדגימה‪ -‬בדומה למבחן ‪ t‬לממוצע יחיד‪ ,‬רק הפעם נעבוד עם‬ ‫‪.4‬‬
‫"מדגם" של הפרשים (‪.)d‬‬

‫הקבלות בין ‪ t‬לתלויים לבין ‪ t‬לב"ת‪:‬‬

‫מבחן ‪ t‬לממוצעים תלויים‬ ‫מבחן ‪ t‬לממוצעים ב"ת‬ ‫קריטריון‬


‫התצפיות חייבות להיות מזווגות‬ ‫מספר התצפיות בכל מדגם אינו‬ ‫גודל המדגמים‬
‫(כלומר‪ ,‬מספר זהה של תצפיות‬ ‫חייב להיות זהה‪.‬‬
‫בכל מדגם)‬
‫גם ב‪ t-‬לתלויים וגם לב"ת גודל המדגמים צריך להיות גדול או שווה ל‪ )n≥30( 30-‬בכדי‬
‫לקיים את משפט הגבול המרכזי (התפלגות דגימה נורמלית בקירוב)‪.‬‬
‫הפיכה למדגם ‪ 1‬ע"י יצירת‬ ‫התייחסות ל‪ 2‬מדגמים‪2 ,‬‬ ‫מבחן ‪t‬‬
‫התפלגות דגימה של ההפרשים‪,‬‬ ‫ממוצעים‪ ,‬מבחן ‪ t‬מיוחד‪.‬‬
‫מבצעים כמו מבחן ‪ t‬לממוצע‬
‫יחיד‪.‬‬
‫לא מדובר ב‪ 2‬מדגמים‪ ,‬שכן הפכנו‬ ‫חובה שיהיה נתון בחישוב ידני‪.‬‬ ‫הנחת הומוגניות‬
‫למדגם ‪ ,1‬ולכן אין צורך בהנחת‬ ‫בשונויות‬
‫שוויון שונויות‪.‬‬
‫בבלתי‪-‬תלויים (ב"ת) מאבדים שתי בתלויים מאבדים רק דרגת חופש‬ ‫דרגות חופש‬
‫אחת (‪)df=n-1‬‬ ‫דרגות חופש (‪.)df=n1+n2-2‬‬
‫מדידות חוזרות‪ -‬יש פחות "רעש"‬ ‫יש יותר דרגות חופש‪ ,‬למרות‬ ‫יתרונות‬
‫של הבדלים אינדיבידואליים בין‬ ‫שאנחנו מאבדים ‪ 2‬דרגות‪ ,‬מכיוון‬
‫זוגות המדידות‪ ,‬בשל‬ ‫שלא איחדנו את המדגמים למדגם‬
‫הקשר‪/‬הדמיון הנתון בין הזוגות‪.‬‬ ‫אחד אלא חיברנו בינהם ולכן יש‬
‫מדובר כאן על משתנה תוך נבדקי‪,‬‬ ‫יותר ממוצעים ויש יותר דרגות‬
‫יש סינון של הבדלים מיותרים‪,‬‬ ‫חופש‪ .‬מדגם גדול יותר מביא‬
‫בדיקה נקייה יותר של המשתנה‬ ‫למדידה מדוייקת יותר‪.‬‬
‫הנמדד‪.‬‬
‫‪15‬‬
‫סטיית התקן קטנה יותר‪ ,‬פחות‬
‫שונות‪ ,‬פיזור קטן יותר‪.‬‬
‫הבדלים חיצוניים‪" ,‬רעש" שמפריע פחות דרגות חופש מאשר בב"ת‬ ‫חסרונות‬
‫למדידה טהורה‪.‬‬
‫עבור מדגמים זהים בגודל (מספר התצפיות) במבחן ‪ t‬לתלויים יהיו פחות דרגות חופש (‬
‫‪ ,)df=n-1‬מאשר מבחן ‪ t‬לב"ת (‪.)df=n+n-2‬‬

‫שלבי המבחן‪ -‬זהים לשלבים של מבחן ‪ t‬לממוצע יחיד‪:‬‬


‫ריכוז נתונים‪:‬‬
‫בודקים ממוצע של כל מדגם ומחשבים כך שיוצא הפרש ממוצעים חיובי‪ .‬יוצרים התפלגות דגימה‬
‫שהיא בעצם הפרשי הממוצעים ועליה מבצעים את מבחן ‪.t‬‬
‫∑‬ ‫‪d‬‬
‫⇔‪d= (x−2 x 1‬‬
‫=‪) d‬‬
‫‪n‬‬
‫∑‬ ‫) ‪(d 2‬‬
‫=‪S‬‬‫‪d‬‬
‫√‬ ‫‪n‬‬
‫‪− (d )2‬‬
‫לאחר מכן מוצאים את סטיית התקן של הפרשי הממוצעים‪-‬‬
‫שלב ‪ -1‬ניסוח השערות‪:‬‬
‫בשלב זה יש לנסח את כיוון השערות המחקר‪ .‬שימו לב כי סימן השווה תמיד מופיע ב‪ ,H0 -‬וכי ההשערות‬
‫המבחן ממצות ומוציאות‪.‬‬
‫חד כיווני ימני‪/‬חיובי‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫≤ ‪H 0 :μ‬‬
‫‪d 0‬‬ ‫= ‪↔ (μ‬‬
‫‪d μ−‬‬
‫)‪1 μ 2‬‬
‫‪H 1 :μ d> 0‬‬ ‫מימין ל‪.)H0-‬‬
‫דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין או‬ ‫‪‬‬
‫=‪μ‬‬
‫‪d μ−‬‬ ‫‪2 μ1‬‬
‫= ‪H 0 :μ‬‬
‫‪d 0‬‬
‫≠ ‪H 1 :μ‬‬
‫‪d 0‬‬
‫משמאל ל‪.)H0-‬‬
‫חד כיווני שמאלי‪/‬שלילי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬ ‫‪‬‬
‫=‪μ‬‬
‫‪d μ−‬‬ ‫‪1 μ2‬‬
‫≥ ‪H 0 :μ‬‬
‫‪d 0‬‬
‫‪H 1 :μ d< 0‬‬ ‫משמאל ל‪.)H0-‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫לגבי התפלגות האוכלוסייה‪ ,‬המדגם והדגימה‪.‬‬
‫הנחות לגבי האוכלוסייה‪:‬‬ ‫‪.35‬‬
‫א‪ .‬המשתנה באוכלוסייה מתפלג נורמלית (במידה וזה נתון‪/‬ידוע)‪.‬‬
‫ב‪ .‬השונות באוכלוסייה איננה ידועה‬
‫הנחות לגבי אופן הדגימה והמדגם‪:‬‬ ‫‪.36‬‬
‫א‪ .‬הדגימה מקרית ובלתי‪-‬תלויה של תצפיות המדגם‪.‬‬
‫גודל המדגמים‪_____=n1=n2 -‬‬ ‫ב‪.‬‬
‫=‪d‬‬ ‫הפרש ממוצעי המדגמים (סטטיסטי המדגם) הוא ___‬ ‫ג‪.‬‬

‫‪16‬‬
‫∑‬ ‫‪(d− d )2‬‬ ‫∑‬ ‫)‪(d 2‬‬
‫=‪S‬‬
‫‪d‬‬
‫√‬ ‫‪n‬‬
‫=‬
‫√‬ ‫‪n‬‬
‫‪− (d )2‬‬
‫ד‪ .‬סטיית התקן במדגם היא‬
‫הנחות לגבי אופן התפלגות הדגימה‪:‬‬ ‫‪.37‬‬
‫ה‪ .‬מתפלגת נורמלית (קומבינציה ליניארית של משתנה המתפלג נורמלית‪ ,‬רק אם זה נתון‬
‫בהנחות לגבי האוכלוסייה)‪ ,‬או נורמלית בקירוב (ע"פ משפט הגבול המרכזי‪ ,‬כאשר ‪.)n≥30‬‬
‫ו‪ .‬בהנחה כי ‪ H0‬נכונה‪:‬‬
‫(אומד חסר הטיה)‪.‬‬
‫=‪μ‬‬
‫=‪d μ‬‬
‫‪d 0‬‬ ‫תוחלת התפלגות הדגימה היא‬ ‫‪)1‬‬
‫‪n‬‬
‫= ^‪σ‬‬
‫‪d‬‬
‫‪σ^ d‬‬
‫‪√n‬‬
‫=‬
‫⋅‪S d‬‬
‫√‬ ‫‪n− 1‬‬
‫‪√n‬‬ ‫טעות התקן היא‪-‬‬ ‫‪)2‬‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫אלפא‪ ,‬ערך קריטי ואזורי דחייה ואי‪-‬דחייה‪.‬‬
‫רמת הסיכון (אלפא ‪)α‬‬ ‫‪.38‬‬
‫קביעת ערך ‪ t‬קריטי‪ -‬בהתאם לרמת הסיכון ולכיוון המבחן (דו"צ‪/‬חד‪-‬צדדי)‬ ‫‪.39‬‬
‫אזורי דחייה ואי‪-‬דחייה‪:‬‬ ‫‪.40‬‬
‫א‪ .‬חד כיווני ימני‪ -‬ממוצע המדגם גדול מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫מימין ל‪.)H0-‬‬
‫____‬
‫≥‪t‬‬
‫‪d‬‬ ‫אזור דחייה‪( -‬תמיד עם סימן ה =)‬ ‫‪‬‬
‫____‬
‫<‪t d‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fd = n− 1‬‬
‫דרגות חופש‬ ‫‪‬‬
‫ב‪ .‬דו‪-‬כיווני‪ -‬ממוצע המדגם שונה מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה או מימין‬
‫או משמאל ל‪.)H0-‬‬
‫אזור דחייה‪ -‬הערך הקריטי נקבע ע"פ סוג ההתפלגות (חד צדדית או דו"צ)‬ ‫‪‬‬
‫‪t≤−‬‬
‫‪d‬‬ ‫‪tc‬‬ ‫או‬
‫≥‪t‬‬
‫‪d tc‬‬

‫‪− t c< t d< tc‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬


‫‪fd = n− 1‬‬
‫דרגות חופש‬ ‫‪‬‬
‫ג‪ .‬חד כיווני שמאלי‪ -‬ממוצע המדגם קטן מתוחלת‪/‬ממוצע ‪( H0‬כלומר‪ ,‬שייך ל‪ H1-‬המצויה‬
‫משמאל ל‪.)H0-‬‬
‫‪t≤−‬‬
‫‪d‬‬ ‫‪tc‬‬ ‫אזור דחייה‪-‬‬ ‫‪‬‬
‫‪t d>− t c‬‬ ‫אזור האי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫‪fd = n− 1‬‬ ‫דרגות חופש‬ ‫‪‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן‪:‬‬


‫‪d− μ d‬‬
‫=‪t‬‬
‫‪d‬‬
‫‪σ^ d‬‬ ‫חישוב ציון התקן של סטטיסטי‪/‬ממוצע המדגם‪-‬‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫השוואת סטטיסטי המבחן לערך הקריטי‪( .‬היכן סטטיסטי המבחן "נופל"? באזור הדחייה או האי‪-‬דחייה?)‬
‫‪17‬‬
‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬מסקנה מילולית‪:‬‬


‫הניסוח תמיד ביחס ל‪!!!H0-‬‬
‫חד כיווני ימני‪/‬חיובי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' קטן או שווה למצב ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' אינו קטן או שווה למצב ב'‪.‬‬ ‫‪o‬‬

‫דו כיווני‪:‬‬ ‫‪‬‬


‫קבלת ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' שווה מצב ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' אינו‪-‬שווה למצב ב'‪.‬‬ ‫‪o‬‬
‫חד כיווני שמאלי‪/‬שלילי‪:‬‬ ‫‪‬‬
‫קבלת ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' גדול או שווה מצב ב'‪.‬‬ ‫‪o‬‬
‫דחיית ‪ – H0‬כפי הנראה המשתנה הנבדק במצב א' אינו גדול או שווה למצב ב'‪.‬‬ ‫‪o‬‬

‫רמת סיכון‪ ,‬טעויות החלטה ועוצמת מבחן‬

‫רמת סיכון‪ -‬אלפא אפריורית ואלפא אפוסטריורית‪:‬‬


‫אלפא אפריורית (מראש)‪ -‬רמת הסיכון (האלפא) שהחוקר לוקח טרם הניסוי מכונה אלפא‬ ‫א‪.‬‬
‫‪.) α= 050‬‬
‫‪.‬‬ ‫אפריורית (מראש)‪ ,‬ובמדעי החברה נהוג לקחת רמת סיכון של ‪( 5%‬‬
‫) נופל באזור הדחייה ‪ ‬דוחים את השערת האפס‪.‬‬
‫‪ZX‬‬ ‫במידה וסטטיסטי המבחן (‬ ‫‪‬‬
‫‪Z‬‬
‫במידה וסטטיסטי המבחן ( ‪ ) X‬נופל באזור האי‪-‬דחייה ‪ ‬לא דוחים את השערת האפס‪.‬‬ ‫‪‬‬
‫אלפא אפוסריורית (בדיעבד)‪ -‬היא רמת הסיכון בדיעבד לאחר ביצוע המבחן‪ .‬אלפא זו יכולה‬ ‫ב‪.‬‬
‫להיות קטנה יותר מהאלפא שנקבע מראש‪.‬‬
‫(מבחן חד זנבי ימני)‪:‬‬ ‫דוגמא‬

‫‪18‬‬
‫אלפא אפוסטריורית ב‪ -SPSS‬נהוג לכנות גם רמת המובהקות (‪ )sig‬ולסמן באות ‪.p‬‬ ‫ג‪.‬‬
‫ברירת המחדל של ‪ SPSS‬היא בדיקה דו"צ‪ ,‬וכדי לגלות את האלפא של מבחן חד‪-‬צדדי‬ ‫‪‬‬
‫צריך לחלק את האלפא שמוצגת ב‪.2‬‬
‫אם האלפא שמוצגת ב‪ SPSS‬היא הרבה מעל ‪ 5%‬בזמן שרמת הסיכון היא ‪ ,5%‬אנחנו לא‬ ‫‪‬‬
‫דוחים את השערת ה‪ 0‬בטוח‪ ,‬באופן אוטומטי‪ .‬למשל אם רמת הסיכון היא ‪ 0.05‬וקיבלנו‬
‫‪.0.52‬‬
‫אם האלפא שמוצגת היא גדולה אך במעט מרמת הסיכון שלנו‪ ,‬ננסה להשיג תוצאה‬ ‫‪‬‬
‫מובהקת יותר ע"י הגדלת המדגם‪.‬‬
‫דוגמא‪:‬‬

‫חישוב למבחן ‪ Z‬חד צדדי ימני‪:‬‬


‫אם נחשב את סטטיסטי המבחן (ציון תקן של ממוצע המדגם)‪ ,‬נוכל לבדוק לפי טבלת ההמרה הנורמלית‬
‫(‪ )z‬לאיזה מאון‪/‬אחוזון הוא שייך (תחת השערת האפס) ‪ -‬כלומר נדע את רמת הביטחון האפוסטריורית (‬
‫‪ ) 1− α‬ומכאן את רמת המובהקות (אלפא אפוסטריורית)‪.‬‬
‫‪x− μ x‬‬
‫=‪Z‬‬
‫‪x‬‬
‫‪σx‬‬ ‫נחשב כך‪-‬‬
‫חישוב למבחן ‪ t‬חד צדדי ימני‪:‬‬
‫אם נחשב את סטטיסטי המבחן ( ציון תקן של ממוצע המדגם)‪ ,‬נוכל לבדוק לפי טבלת ההמרה של‬
‫התפלגות ‪( t‬בהתאם לדרגות החופש וכיוון השערות המבחן) מהי רמת המובהקות האפוסטריורית (אלפא‬
‫אפוסטריורית)‪.‬‬
‫נחשב כך‪-‬‬

‫טעויות החלטה‪:‬‬
‫במבחנים לבדיקת השערות ההחלטה הסופית עשויה להיות אי‪-‬דחיית השערת האפס (‪ )H0‬או דחיית‬
‫השערת האפס (למעשה להניח כי הנתונים שייכים להתפלגות אחרת ‪.)H1‬‬

‫‪19‬‬
‫מכיוון שתהליך זה אינו ודאי (הסקה ממדגם לאוכלוסייה)‪ ,‬אנו עוסקים בהסתברויות אותן ניתן לחלק ל‪4-‬‬
‫מצבים אפשריים (ניתן לבחון בהתאם לאלפא אפריורית או אפוסטריורית)‪:‬‬
‫טעות מסוג ראשון (טעות ‪ - )‬דחינו את ‪ H0‬בטעות‪ ,‬כלומר הסקנו שסטטיסטי המבחן אינו‬ ‫‪.1‬‬
‫שייך להשערת האפס (נפל באזור הדחייה)‪ ,‬אך למעשה (במציאות) הוא שייך להשערת האפס‬
‫(טעות זו משקפת את ההסתברות לדחיית ‪ H0‬בטעות ומכונה רמת סיכון‪/‬מובהקות – ערך האלפא)‪.‬‬
‫רמת ביטחון ((‪ - -1‬לא‪-‬דחינו את ‪ H0‬בצדק‪ .‬מייצגת את ההסתברות לקבל את השערת האפס‬ ‫‪.2‬‬
‫בצדק‪.‬‬
‫השטחים שמתחת‬
‫ל‪ H0 -‬בהתאם‬
‫לערך הקריטי וכיוון‬
‫ההשערות‬

‫טעות מסוג שני (טעות ‪ – ) β‬לא‪-‬דחינו את ‪ H0‬בטעות‪ ,‬כלומר הסקנו שסטטיסטי המבחן שייך‬ ‫‪.3‬‬
‫להשערת האפס (נפל באזור האי‪-‬דחייה)‪ ,‬אך במציאות הוא אינו שייך להשערת האפס‪ ,‬אלא‬
‫להשערה האלטרנטיבית ‪( H1‬ההסתברות לטעות מסוג זה היא ערך הבטא)‪.‬‬
‫עוצמת המבחן (( ‪ - 1− β‬דחינו את ‪ H0‬בצדק‪ .‬עוצמת המבחן מבטאת את ההסתברות‬ ‫‪.4‬‬
‫שהמחקר יניב תוצאות מובהקות‪ ,‬כאשר השערת המחקר נכונה (כלומר ההסתברות שסטטיסטי‬
‫המדגם באמת שייך ל (‪.H1‬‬
‫השטחים‬
‫שמתחת ל‪H1 -‬‬
‫בהתאם לערך‬
‫הקריטי וכיוון‬
‫ההשערות‬
‫‪H10‬‬
‫לסיכום‪:‬‬

‫‪‬‬
‫‪c10‬‬
‫‪Z‬‬

‫‪1− α‬‬ ‫‪ ,) β‬וכנ"ל גם בין רמת הביטחון (‬ ‫‪ ) α‬לטעות בטא (‬ ‫קיים יחס הפוך בין טעות אלפא (‬ ‫•‬
‫) ועוצמת המבחן ( ‪.) 1− β‬‬
‫(למשל (במבחן חד זנבי ימני)‪ ,‬כאשר מקטינים את האלפא (הערך הקריטי זז ימינה) הבטא גדלה‪,‬‬
‫או ההפך (במבחן חד זנבי ימני)‪ ,‬כאשר מגדילים את האלפא (הערך הקריטי זז שמאלה) הבטא‬
‫קטנה)‪.‬‬
‫‪) 1− α‬‬ ‫‪ ,) 1− β‬וכנ"ל גם בין רמת הביטחון (‬ ‫‪ ) α‬לעוצמת המבחן (‬ ‫קיים יחס ישר בין אלפא (‬ ‫•‬
‫‪.) β‬‬ ‫ובטא (‬
‫‪20‬‬
‫(למשל (במבחן חד זנבי ימני)‪ ,‬כאשר מגדילים את רמת הביטחון (הערך הקריטי זז ימינה) עוצמת‬
‫המבחן קטנה‪ .‬או ההפך (במבחן חד זנבי ימני)‪ ,‬כאשר מקטינים את רמת הביטחון (הערך הקריטי‬
‫זז שמאלה) עוצמת המבחן גדלה)‪.‬‬

‫עוצמת המבחן ( ‪:) 1− β‬‬


‫עוצמת המבחן מייצגת את ההסתברות לדחות את ‪ H0‬בצדק‪ ,‬בהנחה ש‪ H1 -‬נכונה ושהמדגם אכן שייך‬
‫ל‪ – H1 -‬כלומר‪ ,‬ההסתברות למציאת אפקט ניסויי‪ ,‬שאכן קיים במציאות‪.‬‬
‫המטרה היא עוצמת מבחן גדולה‪ .‬אפקט המבחן משפיע על עוצמת המבחן‪.‬‬

‫גורמים המשפיעים על עוצמת המבחן‪:‬‬


‫רמת הסיכון‪/‬מובהקות (אלפא)‪ -‬הקטנת האלפא מקטינה את עוצמת המבחן‪ ,‬ולהיפך‪.‬‬ ‫‪.1‬‬
‫למשל (במבחן חד זנבי ימני)‪ ,‬כאשר מקטינים את האלפא (הערך הקריטי זז ימינה) עוצמת המבחן‬
‫קטנה‪ .‬כאשר מגדילים את האלפא (הערך הקריטי זז שמאלה) עוצמת המבחן גדלה‪.‬‬
‫כיוון ההשערות (חד‪/‬דו זנבי)‪ -‬כאשר כיוון השערות החוקר נכונות עוצמת המבחן (האפריורית)‬ ‫‪.2‬‬
‫תהיה גבוהה יותר במבחן חד זנבי מאשר בדו‪-‬זנבי‪.‬‬
‫במבחן דו צדדי האלפא מחולקת לשני צדי ההתפלגות‪ ,‬כך שרוב רובה של עוצמת המבחן‬ ‫•‬
‫נמצא בצד של ‪( H1‬האמיתית‪/‬במציאות)‪ ,‬ומעט מאד (לרוב שואף לאפס) בצד ההפוך ל‪H -‬‬
‫‪ .1‬שכן התפלגויות הדגימה הן אסימפטוטות לציר ה‪( X-‬אינסופיות ושואפות לאפס בצדי‬
‫ההתפלגות)‬
‫במבחן חד צדדי האלפא כולה מצויה בצד אחד‪ ,‬כך שבמידה והשערות החוקר בכיוון הנכון‬ ‫•‬
‫עוצמת המבחן גדולה יותר ממבחן זהה דו‪-‬צדדי (שם האלפא מחולקת לשני צדי‬
‫ההתפלגות‪.‬‬
‫סטיית התקן באוכלוסייה (לרוב גורם שאינו נשלט ע"י החוקר)‪.‬‬ ‫‪.3‬‬
‫גודל המדגם‪.‬‬ ‫‪.4‬‬
‫סוג המבחן הסטטיסטי (למשל מבחן ‪ z‬לעומת ‪ ,t‬או מבחן פרמטרי לעומת א‪-‬פרמטרי)‪.‬‬ ‫‪.5‬‬

‫מתאים ל‪ 4 ,3‬ו‪:5-‬‬
‫ככל שהחפיפה בין ‪ H0‬ל‪ H1 -‬גדולה יותר‪ ,‬עוצמת המבחן תהיה נמוכה יותר‪ .‬מכאן‪ ,‬ככל שסטיית‬
‫התקן באוכלוסייה גדולה יותר‪ ,‬תהיה יותר חפיפה בין ההתפלגויות ועוצמת המבחן תקטן‪ .‬וגם ככל‬
‫שנגדיל את גודל המדגם טעות התקן (הפיזור של התפלגות הדגימה) תקטן ועוצמת המבחן תגדל‪.‬‬
‫ואותו העיקרון חל על סוג המבחן הסטטיסטי – למשל‪ ,‬במבחן ‪ z‬עוצמת מבחן גדולה יותר ממבחן ‪t‬‬
‫(עם מספר דרגות חופש יחסית נמוך)‪.‬‬
‫ניתן לראות כי ככל שפיזור (שונות) ההתפלגויות גדול יותר עוצמת המבחן קטנה יותר‪.‬כפי שידוע לנו‬
‫משיעורים קודמים הפיזור של התפלגויות הדגימה תלוי בפיזור באוכלוסייה וגודל המדגם‪.‬‬

‫גודל האפקט‪ -‬גודל האפקט אומד את ההבדל בין האוכלוסיות (המרחק בין ‪ H0‬ל‪ ,)H1-‬או את‬ ‫‪.6‬‬
‫הקשר בין שני משתנים‪ .‬ככל שגודל האפקט גדול יותר‪ ,‬עוצמת המבחן גדולה יותר‪.‬‬

‫‪21‬‬
‫ניתוח שונות חד‪-‬כיווני (מבחן ‪)F‬‬

‫מתי? בדיקת הסקה סטטיסטית לגבי הבדל בין תוחלות של יותר משתי אוכלוסיות בלתי תלויות‬
‫(התפלגות ‪.)F‬‬

‫מטרת המבחן‪ :‬במצב של ‪ 3‬קבוצות או יותר‪ ,‬רמת הסיכון האפריורית של המבחן גדלה (בשל ההשוואות‬
‫המרובות) ‪ -‬בעיית תיסוף האלפא (‪.)α‬‬
‫ככל שנבצע יותר השוואות כך הסיכון לבצע טעות מסוג ראשון (טעות אלפא) גדל יותר (מעבר לאלפא‬
‫האפריורית שלקחנו בכל השוואה)‪ .‬למשל‪ ,‬עבור ‪ 3‬השוואות ברמת סיכון ‪( 0.05‬כל השוואה)‪ ,‬הסיכון‬
‫המצטבר הוא ‪( 0.14‬שימו לב – היחס המצטבר אינו ליניארי)‪.‬‬
‫כדי לפתור את הבעיה נשתמש במבחן ניתוח שונות‪.‬‬
‫הרציונל מאחורי ניתוחי שונות ((‪ ,ANOVA‬הוא להשוות את השונות בתוך הקבוצות‪( MSW -‬למשל‪,‬‬
‫‪22‬‬
‫הבדלים אינדיבידואלים וטעויות דגימה ‪" -‬רעש"‪/‬טעות) לשונות בין הקבוצות‪( MSB -‬השונות בין ממוצעי‬
‫הקבוצות‪ ,‬התפזרות הממוצעים סביב הממוצע המשוקלל‪ ,‬למעשה האפקט‪/‬ההבדל בין הקבוצות)‪.‬‬
‫ככל שהשוני בין הקבוצות גדול יותר כל יש אפשרות שלפחות אחת הקבוצות היא בעלת אפקט גדול יותר‪.‬‬

‫כאשר‪-‬‬

‫אז‪ -‬יכול להיות שיש אפקט‬

‫כאשר‪-‬‬

‫אז‪ -‬אין אפקט‪.‬‬

‫סימונים‪:‬‬
‫‪ i‬יסמן כל תצפית ו‪ j-‬יסמן כל קבוצה (‪ Xi,j‬התצפית במקום ‪ i‬שבקבוצה ‪ .)j‬למשל‪:‬‬ ‫‪‬‬
‫‪ X1,1=150‬הוא הערך של התצפית הראשונה בקבוצה הראשונה‪.‬‬
‫מספר התצפיות בכל קבוצה יסומן ב‪ ,nj -‬וסה"כ הנבדקים יסומן ב‪ ,N-‬למשל‪:‬‬ ‫‪‬‬
‫מספר הנבדקים בקבוצה הראשונה הוא ‪ n1=7‬ו‪n2=8‬‬
‫סה"כ נבדקים (מעבר לקבוצות) ‪N=18‬‬

‫‪ .‬למשל‪:‬‬
‫‪X‬‬ ‫‪j‬‬ ‫הממוצע של כל קבוצה יסומן ב‪-‬‬ ‫‪‬‬
‫‪X1‬‬ ‫הממוצע של הקבוצה הראשונה‪-‬‬
‫‪X‬‬ ‫הממוצע המשוקלל של כל הקבוצות יסומן ב‪-‬‬ ‫‪‬‬

‫=‪X‬‬
‫‪∑ n ⋅X‬‬
‫‪j‬‬ ‫‪j‬‬

‫‪∑ nj‬‬ ‫מחושב באמצעות הנוסחה‪:‬‬

‫‪23‬‬
‫נוסחאות‪:‬‬

‫‪SS B   n j ( x j  X ) 2‬‬
‫‪SS‬‬
‫‪MS B  j B‬‬
‫‪df‬‬
‫‪df B  J  1B‬‬

‫‪SSW  ‬‬
‫‪SS‬‬ ‫(‬ ‫‪x‬‬‫‪ij‬‬ ‫‪‬‬ ‫‪x‬‬ ‫‪j‬‬ ‫)‬ ‫‪2‬‬

‫‪MSW ‬‬ ‫‪i‬‬ ‫‪Wj‬‬


‫‪df‬‬
‫‪dfW   nWj  J  N  J‬‬ ‫הקשר בין מבחן ‪ F‬למבחן ‪:t‬‬
‫ניתן להגיע להחלטות זהות בביצוע ניתוח שונות חד גורמי‪ -‬מבחן ‪ ,F‬או בביצוע מבחן ‪ t‬להפרש ממוצעים‪j‬‬
‫ב"ת (דו‪-‬זנבי) על נתונים זהים משני מדגמים ב"ת כאשר המבחן הוא דו"צ‪ .‬במקרה זה ממצאי המבחנים‬
‫זהים‪.‬‬
‫‪F‬‬ ‫)=‪(1 N, − 2‬‬ ‫) ‪t2(N− 2‬‬ ‫ניתן לתאר את הקשר בין ‪( t‬הפרשים ב"ת) לבין ‪ F‬בנוסחה הבאה‪:‬‬
‫(אם מדובר בהשערה חד‪-‬צדדית‪ ,‬להשתמש ב‪ t‬ואם יש יותר מקבוצה אחת‪ ,‬להשתמש ב‪.)F‬‬

‫שלבי המבחן‪:‬‬

‫שלב ‪ -1‬ניסוח השערות‪:‬‬


‫(במבחן ‪ ANOVA‬השערות המחקר הן תמיד דו‪-‬כיווניות‪/‬זנביות)‬
‫= ‪H 0 :μ‬‬
‫=‪1 μ‬‬
‫‪2 μ3‬‬

‫‪ H‬ב‪ -H1‬לפחות אחת התוחלות שונה‬


‫‪___:‬‬
‫‪1‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫הדגימה מקרית ובלתי‪-‬תלויה של תצפיות‪.‬‬ ‫‪‬‬
‫משקל התפוחים מתפלג נורמלית באוכלוסיות‪.‬‬ ‫‪‬‬
‫המדגמים בלתי‪-‬תלויים (ב"ת)‪.‬‬ ‫‪‬‬

‫‪24‬‬
‫גודל המדגמים‪_=n1=_, n2=_, n3 :‬‬ ‫‪‬‬
‫השונויות באוכלוסיות הומגניות (שוויון שונויות)‪.‬‬ ‫‪‬‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫__=‪α‬‬ ‫רמת סיכון‪-‬‬ ‫‪‬‬
‫‪fD W= N− j‬‬ ‫‪fD B= −‬‬
‫‪j 1‬‬ ‫דרגות חופש‪-‬‬ ‫‪‬‬
‫‪c‬‬
‫‪F fD‬‬ ‫__=‬
‫(‬ ‫‪B fD‬‬
‫‪, W‬‬ ‫)‬
‫ערך קריטי‪-‬‬ ‫‪‬‬
‫למרות שהשערות המחקר דו‪-‬כיווניות הבדיקה היא חד כיוונית (תמיד בזנב הימני של‬ ‫‪‬‬
‫התפלגות ‪)F‬‬
‫≥‪F‬‬
‫___‬ ‫אזור דחייה‪-‬‬
‫<‪F‬‬
‫___‬ ‫אזור אי‪-‬דחייה‪-‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן‪:‬‬


‫‪SM‬‬ ‫‪B‬‬
‫‪F‬‬ ‫‪(J− 1 N‬‬ ‫=‬
‫)‪, −J‬‬
‫‪SM‬‬ ‫‪W‬‬

‫‪x=j‬‬
‫∑‬ ‫‪x ji‬‬
‫‪n‬‬ ‫‪j‬‬ ‫ראשית נחשב את הממוצע של כל קבוצה‪-‬‬

‫=‪X‬‬
‫‪∑ n ⋅x‬‬
‫‪j j‬‬

‫‪∑ nj‬‬ ‫ואח"כ נחשב את הממוצע המשוקלל‪-‬‬

‫בתוך שלב ‪ -4‬חישוב אומדן לשוני בין הקבוצות ובתוך הקבוצות‪:‬‬

‫שוני בין קבוצות‬


‫‪SS B‬‬
‫=‪SM B‬‬
‫‪fd B= J− 1‬‬ ‫‪SS B=∑ n j(x−j X )2‬‬ ‫‪‬‬ ‫‪fd B‬‬
‫שוני בתוך הקבוצות‬
‫‪SS‬‬
‫‪2‬‬ ‫‪SM W= W‬‬
‫‪fd W= N− J‬‬ ‫∑∑=‪SS W‬‬ ‫)‪ji x j‬‬
‫‪(x −‬‬ ‫‪‬‬ ‫‪fd W‬‬

‫הצבה בנוסחה של סטטיסטי המבחן‪:‬‬


‫‪SM B‬‬
‫)=‪F (J− 1 N, − J‬‬
‫‪SM W‬‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫השוואת סטטיסטי המבחן לערך הקריטי‪( .‬היכן סטטיסטי המבחן "נופל"? באזור הדחייה או האי‪-‬דחייה?)‬
‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪ .‬מצב בו כל‬ ‫‪‬‬
‫התוחלות זהות‪.‬‬

‫‪25‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪ .‬מצב בו לפחות‬ ‫‪‬‬
‫אחת התוחלות שונה‪.‬‬

‫שלב ‪ -6‬ניסוח מילולי‪:‬‬


‫כפי הנראה אין‪/‬יש הבדל בין ממוצעי הקבוצות השונות‬
‫כפי הנראה לא כל ממוצעי הקבוצות שווים‬

‫‪2‬‬
‫‪:) η‬‬ ‫אמידה ‪ -‬גודל אפקט – אטא בריבוע (‬
‫גודל האפקט הוא גורם המשפיע על עוצמת המבחן‪.‬‬
‫גודל האפקט – גודל האפקט אומד את ההבדל בין האוכלוסיות (המרחק בין ‪ H0‬ל‪ ,)H1-‬או את הקשר בין‬
‫שני משתנים‪ .‬ככל שגודל האפקט גדול יותר‪ ,‬עוצמת המבחן גדולה יותר‪.‬‬

‫(למדנו כי ישנן דרכים שונות לחישוב גודל אפקט‪ ,‬למשל הבדל בין שתי אוכלוסיות ניתן לחשב ע"י ‪,Cohen’s d‬‬
‫‪2‬‬
‫‪.)) η‬‬
‫‪2‬‬
‫‪ ) r‬או אטא בריבוע (‬ ‫וגודל אפקט לקשר בין משתנים ניתן לחשב‪ ,‬למשל ע"י מתאם פירסון בריבוע (‬

‫בניתוח שונות חד כיווני חישוב גודל האפקט מחושב ע"פ אטא בריבוע‪:‬‬

‫אם נרצה לבדוק את אחוז ההצלחה‪ ,‬כמה מהשלם הוא אפקט? נחלק את ‪ SSB‬ב‪.SST‬‬
‫מה אנחנו בעצם מקבלים? את האחוז שנהיה צודקים בניבוי שלנו‪ .‬אם יצא לנו ‪ ,0.7‬שזה ‪ ,70%‬זה אומר‬
‫שנהיה צודקים ב‪ 70%‬מההשערות שלנו כשננסה לשייך תצפית כלשהי לאחת הקבוצות בהתאם לממוצע‬
‫שלה‪.‬‬

‫אטא בריבוע משקפת את היחס בין שונות הניבויים (השונות המדגמית בין הקבוצות – ‪)SSB‬‬
‫לבין השונות הכללית (במדגמים‪.)SST -‬‬
‫ככל שהיחס הנ"ל גבוה יותר (נע בין ‪ 0‬ל‪ )1-‬האפקט גדול יותר‪.‬‬
‫את יחס זה ניתן הפוך לאחוזים ע"י כפילתו ב‪ ,100-‬ואז ניתן לדווח על אחוז השונות המוסברת (כמה אחוז‬
‫מהשונות הכללית ניתן להסביר באמצעות השונות בין הקבוצות)‪.‬‬

‫‪2‬‬
‫‪SS B‬‬ ‫‪SS‬‬ ‫‪B‬‬
‫=‪η‬‬ ‫=‬
‫‪SS W +SS B SS‬‬ ‫‪T‬‬

‫‪SSW‬‬ ‫‪SS B‬‬


‫‪26‬‬

‫‪SST=SSB‬‬
‫‪SS‬‬
‫‪SSB‬‬
‫‪+SSW‬‬
‫‪W‬‬
‫‪2‬‬
‫‪η0∗01‬‬ ‫אחוז השונות המוסברת ע"י הבדלים בין קבוצות ‪‬‬
‫‪2‬‬
‫‪(η −‬‬ ‫∗‪1 0‬‬
‫‪)01‬‬ ‫אחוז שונות לא מוסברת ‪‬‬

‫‪η‬‬ ‫מדד הקשר אטא‬


‫=‪√ η =2 η‬‬ ‫הכוונה למדד הקשר בין המשתנה הב"ת (קבוצות) לבין המשתנה התלוי‬
‫משקף קשר בין שני משתנים בדומה למדד פירסון‪ ,‬אך בשונה למדד פירסון‪ ,‬מספיק שרק אחד מהמשתנים‬
‫יהיה מסולם רווח‪-‬מנה‪ ,‬ולא מדובר על קשר ליניארי (ערך מדד הקשר אטא נע בין ‪ 0‬ל‪)1-‬‬

‫ניסוח מסקנה מאחוז שונות מוסברות‪ -‬דוגמאות‪:‬‬


‫‪2‬‬
‫‪  η = 957‬גודל אפקט גדול מאד‪ .‬ניתן לומר כי אחוז השונות המוסברת ע"י ההבדלים בין‬
‫‪0.‬‬ ‫‪‬‬
‫הקבוצות היא ‪75.59%‬‬
‫‪2‬‬
‫‪  η = 301‬גודל אפקט קטן‪ .‬ניתן לומר כי אחוז השונות המוסברת ע"י ההבדלים בין‬
‫‪0.‬‬ ‫‪‬‬
‫הקבוצות היא ‪10.3%‬‬
‫‪2‬‬
‫‪  η = 0320‬גודל אפקט קטן מאד‪ .‬ניתן לומר כי אחוז השונות המוסברת ע"י ההבדלים בין‬
‫‪.‬‬ ‫‪‬‬
‫הקבוצות היא ‪2.3%‬‬

‫השוואות (קונטרסטים) מתוכננות‬

‫מתי? ניתוחי המשך ל‪( ANOVA-‬מבחן ‪ )F‬המבוצע כאשר יש יותר משתי אוכלוסיות ב"ת‪ .‬כאשר יש לנו‬
‫בהשערה את מקור האפקט וכיוונו נוכל לבצע מבחן של השוואות מתוכננות‪.‬‬

‫מטרת המבחן‪ :‬באמצעות ניתוחי שונות (‪ )ANOVA‬ניתן לבחון האם קיים הבדל בין יותר משני ממוצעים‬
‫(אוכלוסיות) ‪ -‬כלומר‪ ,‬האם כל הממוצעים שווים (‪ ,)H0‬או האם לפחות אחד מהממוצעים שונה מהשאר?‬

‫‪27‬‬
‫במידה והמבחן (‪ )ANOVA‬יצא מובהק (דחינו את השערת האפס)‪ ,‬ניתן להניח כי לפחות אחד‬
‫מהממוצעים שונה מהשאר‪ ,‬וכעת ניתן לבצע ניתוחי המשך (השוואות‪/‬קונטרסטים) על מנת לאבחן אילו‬
‫ממוצעים גדולים‪/‬קטנים יותר מהשאר – למעשה לאבחן את מקור האפקט וכיוונו‪.‬‬

‫מהן השוואות מתוכננות?‬


‫השוואות הבודקות הבדלים בין הממוצעים אותם החוקר שיער טרם איסוף וניתוח הנתונים‪.‬‬
‫למעשה אפקטים‪/‬הבדלים שהחוקר שיער מראש – בהתאם לרציונל תיאורטי שביסס טרם ביצוע‬
‫המחקר‪.‬‬

‫סימונים‪:‬‬
‫‪( ψ‬פסי) והיא משקפת‬ ‫השוואה (קונטרסט) בבחינת השערות המחקר‪ ,‬מסומנת באות‬ ‫‪‬‬
‫השוואה בין שתי קבוצות "על"‪ ,‬הכוללות את ממוצעי הקבוצות במערך מאוזן ע"פ משקולות‪.‬‬
‫מקדמי התוחלות‪/‬ממוצעים מכונים משקולות ומסומנים באות ‪( .Cj‬לדוגמא‪ ,‬שיערנו כי‬ ‫‪‬‬
‫ממצוע של קבוצה ‪ 3‬גדול ממוצעי קבוצות ‪ 1‬ו‪ ,2‬המשקולת של קבוצה ‪ 3‬נשארת בשלמותה‬
‫והמשקולת השנייה מתחלקת בין קבוצה ‪ 1‬לקבוצה ‪ ,2‬כך שלכל קבוצה יש מקדם של ‪ 0.5‬בעוד‬
‫שלקבוצה ‪ 3‬יש מקדם ‪ .1‬מזיזים את כל ה‪X‬ים לצד אחד ויוצרים השערה עם ‪ 0‬בצד השני)‪ .‬יש‬

‫כלומר אם נחבר את המשקולות נקבל ‪.0‬‬ ‫∑‬ ‫‪C =j 0‬‬ ‫לשים לב כי חייב להתקיים‪-‬‬

‫נוסחאות‪:‬‬
‫השוואות (קונטרסטים) מתוכננות מתפלגות ‪ t‬עם ‪df=N-j‬‬ ‫‪‬‬
‫‪ψ=∑ (C ⋅μ‬‬
‫)‪j j‬‬ ‫פרמטר (באוכלוסיות)‪-‬‬ ‫‪‬‬
‫=‪ψ‬‬
‫‪^ ∑ (C ⋅x‬‬
‫)‪j j‬‬ ‫סטטיסטי המדגם‪-‬‬ ‫‪‬‬
‫‪2‬‬
‫‪C j‬‬
‫=‪σ^ψ‬‬
‫√‬
‫‪^ SM‬‬ ‫∑‬
‫(⋅‪W‬‬
‫‪n j‬‬
‫)‬
‫בהנחה שיש שוויון שונויות טעות התקן‪-‬‬
‫‪ψ−‬‬
‫‪^ ψ‬‬
‫‪‬‬

‫=‪tψ‬‬
‫^‬
‫^‪σ^ψ‬‬
‫סטטיסטי המבחן‪-‬‬ ‫‪‬‬
‫דרגות חופש (מאבדים ‪ J‬דרגות חופש‪ ,‬אחת עבור כל מדגם במערך המחקר הכולל)‪-‬‬ ‫‪‬‬
‫‪fd =∑ n−j J= N− J‬‬
‫‪α‬‬ ‫‪α‬‬
‫(‬ ‫)‬ ‫(‬ ‫)‬
‫‪2‬‬ ‫‪2‬‬
‫‪p [ψ−‬‬
‫‪^ t c (N−‬‬ ‫‪J⋅)σ ψ‬‬
‫≤^‬‫⋅‪^ ψ≤ ψ + tc (N− J‬‬
‫^‬ ‫=^‪)σ ψ‬‬
‫‪^ ] 1− α‬‬
‫רווח סמך‪-‬‬ ‫‪‬‬

‫שלבי המבחן (בדוגמא ל‪ 3‬קבוצות)‪:‬‬

‫שלב ‪ -1‬ניסוח השערות‪:‬‬


‫חד כיווני ימני‪/‬חיובי‪ -‬הפרשי המדגמים גדולים מ‪H0‬‬ ‫‪‬‬
‫‪H 0 :ψ= 1⋅μ −‬‬
‫‪3 0 .5⋅μ −‬‬
‫≤ ‪1 0 .5⋅μ‬‬
‫‪2 0‬‬
‫‪H 1 :ψ= 1⋅μ −‬‬
‫‪3 0 .5⋅μ −‬‬
‫‪1 0 .5⋅μ 2> 0‬‬
‫דו‪-‬כיווני‪ -‬הפרש הממוצעים שונים מ‪H0‬‬ ‫‪‬‬
‫‪28‬‬
‫‪H 0 :ψ= 1⋅μ −‬‬
‫= ‪2 1⋅μ‬‬
‫‪1 0‬‬
‫‪H 1 :ψ= 1⋅μ −‬‬
‫≠ ‪2 1⋅μ‬‬
‫‪1 0‬‬
‫חד‪-‬כיווני שמאלי‪/‬שלילי‪ -‬הפרשי ההממוצעים קטן מ‪H0‬‬ ‫‪‬‬
‫‪H 0 :ψ= 1⋅μ −‬‬
‫‪3 0 .5⋅μ −‬‬
‫≤ ‪1 0 .5⋅μ‬‬
‫‪2 0‬‬
‫‪H 1 :ψ= 1⋅μ −‬‬
‫‪3 0 .5⋅μ −‬‬
‫‪1 0 .5⋅μ 2> 0‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫הדגימה מקרית ובלתי‪-‬תלויה של תצפיות‪.‬‬ ‫•‬
‫משקל התפוחים מתפלג נורמלית באוכלוסיות‪.‬‬ ‫•‬
‫המדגמים בלתי‪-‬תלויים (ב"ת)‪.‬‬ ‫•‬
‫גודל המדגמים‪( ?=n1 :‬שיטה ‪( ?=n2 ,)1‬שיטה ‪( ?=n3 ,)2‬שיטה ‪.)3‬‬ ‫•‬
‫השונויות באוכלוסיות הומגניות (שוויון שונויות)‪.‬‬ ‫•‬
‫‪SS W ∑ ∑ (x ji− x j)2‬‬
‫=‪SM W‬‬ ‫=‬
‫‪fd W‬‬ ‫‪N− J‬‬ ‫האומדן לשונות בתוך האוכלוסיות‪-‬‬ ‫•‬
‫=‪ψ‬‬
‫‪^ ∑ (C ⋅x‬‬
‫)‪j j‬‬ ‫סטטיסטי המדגם‪-‬‬ ‫•‬
‫‪2‬‬
‫‪C j‬‬
‫=‪σ^ψ‬‬
‫√‬
‫‪^ SM‬‬ ‫∑‬
‫(⋅‪W‬‬
‫‪n j‬‬
‫)‬
‫טעות התקן (של סטטיסטי המבחן)‪-‬‬ ‫•‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫=‪α‬‬
‫____‬ ‫רמת סיכון‪-‬‬ ‫‪‬‬
‫‪fd = N− J‬‬ ‫דרגות חופש‪-‬‬ ‫‪‬‬

‫(טבלת ‪)t‬‬ ‫‪t c(α(N−‬‬


‫)‬
‫______‬
‫=‪J‬‬
‫)‬ ‫ערך קריטי‪-‬‬ ‫‪‬‬
‫אזור דחייה ואי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫א‪ .‬חד כיווני ימני‪/‬חיובי‪-‬‬
‫__≥‪tψ‬‬
‫^‬ ‫אזור דחייה‪-‬‬
‫__<^‪tψ‬‬ ‫אזור אי‪-‬דחייה‪-‬‬
‫דו‪-‬כיווני‪-‬‬ ‫ב‪.‬‬
‫__≤‪tψ‬‬
‫^‬ ‫__≥‪←ro → tψ‬‬
‫^‬ ‫אזור דחייה‪-‬‬
‫__<^‪__ < tψ‬‬ ‫אזור אי‪-‬דחייה‪-‬‬
‫חד‪-‬כיווני שמאלי‪/‬שלילי‪-‬‬ ‫ג‪.‬‬
‫__≥‪tψ‬‬
‫^‬ ‫אזור דחייה‪-‬‬
‫__<^‪tψ‬‬
‫אזור אי‪-‬דחייה‪-‬‬
‫שלב ‪ -4‬חישוב סטטיסטי המבחן (ציון התקן של סטטיסטי המדגם)‪:‬‬
‫‪ψ−‬‬
‫‪^ ψ‬‬
‫=‪tψ‬‬
‫^‬
‫^‪σ^ψ‬‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫‪29‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬ניסוח מסקנה מילולית‬


‫בהתאם לקבוצות ולכיוון‪.‬‬

‫השוואות (קונטרסטים) בדיעבד ((‪post-hoc‬‬

‫מתי? ניתוחי המשך ל‪( ANOVA-‬מבחן ‪ ,)F‬בדיקת השערות מאוחרות לגבי כיוון ומקור האפקט המבוצע‬
‫כאשר יש יותר משתי אוכלוסיות ב"ת‪ .‬כאשר יש לנו בהשערה את מקור האפקט וכיוונו נוכל לבצע את‬
‫המבחן‪.‬‬

‫‪30‬‬
‫מטרת המבחן‪ :‬השוואות הבודקות הבדלים בין הממוצעים אותם החוקר רוצה לבדוק לאחר איסוף‬
‫וניתוח הנתונים‪ .‬למעשה אפקטים‪/‬הבדלים שהחוקר גילה בדיעבד‪ ,‬ומעוניין לבדוק לאחר שראה את‬
‫הממצאים‪.‬‬

‫המחיר של השוואות מתוכננות‪:‬‬


‫חוקר המבצע השוואות בדיעבד צריך "לשלם מחיר סטטיסטי" על אי‪-‬ביסוס השערות מוקדמות טרם‬
‫החשיפה לממצאים‪.‬‬
‫על היתרון הסטטיסטי (לדחיית השערת האפס) שקיבל החוקר ע"י "הצצה בנתונים" ושיעור השוואות‬
‫בדיעבד‪ ,‬עליו "לשלם מחיר סטטיסטי" ‪ -‬למעשה המחיר כפול‪:‬‬
‫השערה דו‪-‬צדדית – בעוד בהשוואות מתוכננות החוקר יכול לנסח השערות חד‪/‬דו צדדי‪,‬‬ ‫‪)1‬‬
‫בהשוואות בדיעבד החוקר יכול לנסח השערות דו‪-‬צדדיות בלבד‪ ,‬או לאמוד ע"פ רווח סמך בלבד‬
‫(המחיר הראשון להקטנת הסיכוי בדחיית השערת האפס)‪.‬‬
‫החמרה באופן ביצוע ההשוואה (מקשים על דחיית השערת האפס ‪ -‬המחיר השני) ‪ -‬למשל‪,‬‬ ‫‪)2‬‬
‫הטכניקה של שפה (‪ )Scheffe‬להגדלת‪/‬הקצנת הערך הקריטי (הקטנת אזורי הדחייה)‪ .‬ישנן‬
‫מספר טכניקות להחמרה בהשוואות בדיעבד‪ ,‬אנו נלמד את שפה (‪.)Scheffe‬‬

‫השוואה (קונטרסט) בדיעבד‪ ,‬הטכניקה של ‪:Scheffe‬‬


‫השלבים בטכניקה של ‪ Scheffe‬זהים לשלבים שביצענו בהשוואות מתוכננות (שיעור ‪ ,)11‬למעט‪:‬‬
‫א) האילוץ שהשערות המבחן (שלב ‪ )1‬חייבות להיות דו‪-‬צדדיות‪.‬‬
‫( ‪tC‬‬
‫‪effehcS‬‬ ‫)‬ ‫ב) הקצנת הערך הקריטי של המבחן (שלב ‪ )3‬באמצעות שיטת ‪- Scheffe‬‬

‫שלבי המבחן (בדוגמא ל‪ 3‬קבוצות)‪:‬‬

‫שלב ‪ -1‬ניסוח השערות (תמיד דו זנבי)‪:‬‬


‫דו‪-‬כיווני‪ -‬הפרש הממוצעים שונים מ‪H0‬‬
‫‪H 0 :ψ= 1⋅μ −‬‬
‫= ‪2 1⋅μ‬‬
‫‪1 0‬‬
‫‪H 1 :ψ= 1⋅μ −‬‬
‫≠ ‪2 1⋅μ‬‬
‫‪1 0‬‬

‫שלב ‪ -2‬הנחות‪:‬‬
‫הדגימה מקרית ובלתי‪-‬תלויה של תצפיות‪.‬‬ ‫•‬
‫משקל התפוחים מתפלג נורמלית באוכלוסיות‪.‬‬ ‫•‬
‫המדגמים בלתי‪-‬תלויים (ב"ת)‪.‬‬ ‫•‬
‫גודל המדגמים‪( ?=n1 :‬שיטה ‪( ?=n2 ,)1‬שיטה ‪( ?=n3 ,)2‬שיטה ‪.)3‬‬ ‫•‬
‫השונויות באוכלוסיות הומגניות (שוויון שונויות)‪.‬‬ ‫•‬
‫‪SS W ∑ ∑ (x ji− x j)2‬‬
‫=‪SM W‬‬ ‫=‬
‫‪fd W‬‬ ‫‪N− J‬‬ ‫האומדן לשונות בתוך האוכלוסיות‪-‬‬ ‫•‬
‫=‪ψ‬‬
‫‪^ ∑ (C ⋅x‬‬
‫)‪j j‬‬ ‫סטטיסטי המדגם‪-‬‬ ‫•‬
‫‪2‬‬
‫‪C j‬‬
‫=‪σ^ψ‬‬
‫√‬
‫‪^ SM‬‬ ‫∑‬
‫(⋅‪W‬‬
‫‪n j‬‬
‫)‬
‫טעות התקן (של סטטיסטי המבחן)‪-‬‬ ‫•‬

‫שלב ‪ -3‬קביעת רמת סיכון וערך קריטי‪:‬‬


‫‪31‬‬
‫=‪α‬‬
‫____‬ ‫רמת סיכון‪-‬‬ ‫‪‬‬
‫‪fd = N− J‬‬ ‫דרגות חופש‪-‬‬ ‫‪‬‬
‫‪α‬‬
‫( ‪tC‬‬
‫‪effehcS‬‬ ‫‪=) √FeffehcS‬‬
‫(‪C‬‬ ‫)‬ ‫‪Scheffe-‬‬
‫)‪FC ( Scheffe )=(J −1 )⋅F( J −1 ,N −J‬‬
‫הערך הקריטי ע"פ ‪‬‬ ‫‪‬‬
‫אזור דחייה ואי‪-‬דחייה‪-‬‬ ‫‪‬‬
‫דו‪-‬כיווני‪-‬‬
‫__≤‪tψ‬‬
‫^‬ ‫__≥‪←ro → tψ‬‬
‫^‬ ‫אזור דחייה‪-‬‬
‫__<^‪__ < tψ‬‬ ‫אזור אי‪-‬דחייה‪-‬‬

‫שלב ‪ -4‬חישוב סטטיסטי המבחן (ציון התקן של סטטיסטי המדגם)‪:‬‬


‫‪ψ−‬‬
‫‪^ ψ‬‬
‫=‪tψ‬‬
‫^‬
‫^‪σ^ψ‬‬

‫שלב ‪ -5‬קבלת החלטה‪:‬‬


‫קבלת ‪ – H0‬תוצאה לא‪-‬מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור האי‪-‬דחייה‪.‬‬ ‫‪‬‬
‫דחיית ‪ – H0‬תוצאה מובהקת‪ ,‬במידה וסטטיסטי המבחן "נפל" באזור הדחייה‪.‬‬ ‫‪‬‬

‫שלב ‪ -6‬ניסוח מסקנה מילולית‬


‫בהתאם לקבוצות ותמיד דו‪-‬זנבי‪.‬‬

‫‪32‬‬

You might also like