ANOVA

Analysis of Variance (ANOVA) ဆိုတာ ဘာလဲ၊ ဘာလို့သုံးတာလဲ

ပြောရမယ်ဆိုရင် Analysis of Variance လို့ခေါ်တဲ့ ANOVA ဟာ ကိန်းဂဏန်းအချက်အလက်တွေကို ခွဲခြမ်းစိတ်ဖြာတဲ့ နည်းလမ်းတစ်ခုပါ။ ဒီအခန်းရဲ့ ရည်ရွယ်ချက်ကတော့ linear models လို့ခေါ်တဲ့ နည်းလမ်းတွေထဲက ပထမဆုံး နည်းလမ်းအကြောင်းကို မိတ်ဆက်ပေးဖို့ပါပဲ။

ANOVA ရဲ့ အဓိက အိုင်ဒီယာ ကတော့ ဒေတာတစ်ခုလုံးမှာ ရှိနေတဲ့ ပြောင်းလဲမှု (total variation) ကို အစိတ်အပိုင်းလေးတွေအဖြစ် ပိုင်းခြား (partitioning) လိုက်တာပါ။ ဒီအစိတ်အပိုင်းတစ်ခုစီတိုင်းဟာ သီးခြားစီဖြစ်တဲ့ ပြောင်းလဲမှုရင်းမြစ် (source of variation) တစ်ခုနဲ့ ဆက်စပ်နေပါတယ်။ ဒီလိုပိုင်းခြားလိုက်ခြင်းအားဖြင့် ပြောင်းလဲမှုရင်းမြစ်တစ်ခုစီရဲ့ ပြောင်းလဲမှုပမာဏကို သိရှိနိုင်ပါတယ်။ ဒီရလဒ်တွေကို အသုံးပြုပြီးတော့ လူဦးရေ (population) တစ်ခုရဲ့ variance တွေနဲ့ mean တွေအကြောင်းကို ခန့်မှန်းဖို့နဲ့ ယူဆချက်တွေ စမ်းသပ်ဖို့ လုပ်ဆောင်နိုင်ပါတယ်။

အခန်း ၇ (Chapter 7) မှာ လူဦးရေနှစ်စုရဲ့ mean တွေကြားက ကွာခြားမှု မရှိဘူးဆိုတဲ့ null hypothesis ကို ဘယ်လိုစမ်းသပ်ရမယ်ဆိုတာ လေ့လာခဲ့ပြီးပြီ။ တကယ်တမ်းကျတော့ သုတေသီတွေဟာ လူဦးရေနှစ်စုထက်ပိုတဲ့ အစုများစွာရဲ့ mean တွေကြားက ကွာခြားမှု မရှိဘူးဆိုတဲ့ null hypothesis ကို စမ်းသပ်ချင်တာမျိုးလည်း ရှိနိုင်ပါတယ်။ ဥပမာ၊ လူဦးရေ ၅ စု ပါတယ်ဆိုပါစို့။ ဒီလိုမျိုးမှာ အစုတစ်ခုချင်းစီကို တွဲပြီး Student t test ၁၀ ကြိမ် လုပ်တာဟာ အလုပ်ရှုပ်တဲ့အပြင် မှားယွင်းတဲ့ ကောက်ချက်ချမိဖို့ အခွင့်အလမ်း ပိုများစေပါတယ် (very likely to lead to a false conclusion)။ ဒါကြောင့်မို့လို့ ANOVA လိုမျိုး ပိုပြီး ထိရောက်တဲ့ နည်းလမ်းကို လိုအပ်ပါတယ်။

ANOVA မှာ လေ့လာမယ့် ဒီဇိုင်းအမျိုးအစားတွေ

ဒီအခန်းမှာ အဓိက လေ့လာရမယ့် ဒီဇိုင်းတွေကတော့ –
1.The Completely Randomized Design
2.The Randomized Complete Block Design ဒါ့အပြင် Repeated Measures Design နဲ့ Factorial Experiment အကြောင်းကိုလည်း မိတ်ဆက်ပေးထားပါတယ်။

၁။ The Completely Randomized Design
ဒီဒီဇိုင်းကို အသုံးပြုတာကတော့ treatment တွေပေးမယ့် experimental units တွေက တသားတည်းဖြစ်နေတယ် (homogeneous) လို့ ယူဆနိုင်တဲ့အခါပါ။

ဒီဇိုင်းရဲ့ Model
ဒီဒီဇိုင်းအတွက် model ကတော့ – xij = μ + τj + eij ဒီ model က ဒေတာအစုတစ်ခုထဲက ပုံမှန် (typical) observation တစ်ခု ကို ကိုယ်စားပြုပါတယ်။
•xij ကတော့ j လို့သတ်မှတ်ထားတဲ့ treatment ကနေရတဲ့ i ကြိမ်မြောက် observation ပါ။
•μ (mu) ကတော့ population means အားလုံးရဲ့ mean ကို ကိုယ်စားပြုပြီး grand mean လို့ခေါ်ပါတယ်။
•τj (tau j) ကတော့ j လို့သတ်မှတ်ထားတဲ့ population ရဲ့ mean နဲ့ grand mean ကြားက ကွာခြားချက်ကို ကိုယ်စားပြုပြီး treatment effect လို့ခေါ်ပါတယ်။
•eij ကတော့ observation တစ်ခုစီက သူနဲ့သက်ဆိုင်တဲ့ group ရဲ့ mean ကနေ ဘယ်လောက်သွေဖည်နေလဲဆိုတာကို ကိုယ်စားပြုပြီး error term လို့ခေါ်ပါတယ်။
ဆိုလိုတာက typical observation တစ်ခု မှာ grand mean၊ treatment effect နဲ့ error term ဆိုတဲ့ အစိတ်အပိုင်းတွေ ပါဝင်ပါတယ်။

ယူဆချက်များ (Assumptions)
Completely Randomized Design ကို အသုံးပြုဖို့အတွက် အဓိက ယူဆချက်တွေကတော့:
•မတူညီတဲ့ treatment group တွေကနေရတဲ့ sample တွေဟာ လွတ်လပ်တဲ့ ရိုးရှင်းသော ကျပန်းနမူနာများ (independent simple random samples) ဖြစ်ရမယ်။
•သက်ဆိုင်ရာ population တွေဟာ ပုံမှန်ဖြန့်ဝေမှု (normally distributed) ရှိရမယ်။
•Population တွေအားလုံးရဲ့ variance တွေဟာ တူညီရမယ် (equal variances)။

ယူဆချက်များ (Hypotheses)
ကျွန်တော်တို့ စမ်းသပ်ချင်တဲ့ null hypothesis ကတော့ population means တွေအားလုံးဟာ တူညီတယ် (m1 = m2 = … = mk) ဆိုတာပါ။ alternative hypothesis ကတော့ population means တွေအားလုံး တူညီနေတာမဟုတ်ဘူး (not all mj are equal) ဆိုတာပါ။ ဒါကို treatment effect တွေနဲ့ပြောရရင် H0: τj = 0 for all j နဲ့ HA: not all τj = 0 လို့လည်း ပြောနိုင်ပါတယ်။

Test Statistic
Completely Randomized Design အတွက် test statistic ကတော့ variance ratio လို့ခေါ်တဲ့ V.R. (ဒါမှမဟုတ် F လို့လည်းခေါ်ပါတယ်)။ ဒီ V.R. ကို sample data တွေကနေ တွက်ချက်ထားတဲ့ variance နှစ်ခုကနေ ရတာပါ။

Variance Partitioning (Sum of Squares ပိုင်းခြားခြင်း)
ANOVA ရဲ့ အဓိက လုပ်ဆောင်ချက်က total variation ကို အစိတ်အပိုင်းတွေအဖြစ် ပိုင်းခြားတာလို့ ပြောခဲ့ပြီးပြီ။ ဒီနေရာမှာ variation ဆိုတာက sum of squared deviations of observations from their mean (sum of squares) ကို ဆိုလိုတာပါ။

•Total Sum of Squares (SST): ဒါက observed Y value တွေ သူတို့ရဲ့ mean (ȳ) ကနေ ဘယ်လောက်ပျံ့နှံ့နေလဲဆိုတာကို တိုင်းတာတာပါ။

•Among Groups Sum of Squares (SSA): ဒါက မတူညီတဲ့ group mean တွေ သူတို့အားလုံးရဲ့ mean (grand mean) ကနေ ဘယ်လောက်ကွာခြားနေလဲဆိုတာကို တိုင်းတာတာပါ။ ဒီ variation ဟာ treatments တွေကြောင့် ဖြစ်တယ်လို့ ယူဆရပါတယ်။ ဒါကို treatment sum of squares (SSTr) လို့လည်း ခေါ်နိုင်ပါတယ် (ဒီအခန်းမှာ SSA လို့ သုံးထားပါတယ်)။

•Within Groups Sum of Squares (SSW): ဒါက observation တစ်ခုစီက သူတို့所属တဲ့ group ရဲ့ mean ကနေ ဘယ်လောက်ကွာခြားနေလဲဆိုတာကို တိုင်းတာတာပါ။ ဒါက treatment ကြောင့်မဟုတ်ဘဲ ကျပန်းအမှား (random error) တွေကြောင့် ဖြစ်တဲ့ variation ကို ကိုယ်စားပြုပါတယ်။ ဒါကို error sum of squares (SSE) လို့လည်း ခေါ်ပါတယ်။
ဒီ sums of squares တွေကြားက ဆက်စပ်မှုကတော့ SST = SSA + SSW ပါ။

Mean Squares (MS)
Sums of squares တွေကို သက်ဆိုင်ရာ degrees of freedom (df) နဲ့စားရင် mean square (MS) ကို ရပါတယ်။ Mean square တွေဟာ variance ကို ခန့်မှန်းတာပါ။
•Among Groups Mean Square (MSA) = SSA / df_among
•Within Groups Mean Square (MSW) = SSW / df_within

F Test Logic
ကျွန်တော်တို့ရဲ့ null hypothesis (H0: all means are equal) ဟာ မှန်တယ်ဆိုရင် MSA နဲ့ MSW နှစ်ခုလုံးဟာ population variance (σ²) ကို ခန့်မှန်းတာ ဖြစ်သင့်ပါတယ်။ ဒါကြောင့် သူတို့ရဲ့ အချိုး (MSA/MSW) ဟာ ၁ နဲ့ နီးစပ်နေသင့်ပါတယ်။
ဒါပေမယ့်လို့၊ null hypothesis က မှားပြီး (ဥပမာ – treatment တွေက တကယ်ပဲ ကွာခြားမှု ရှိနေတယ်) ဆိုရင် MSA က population variance (σ²) ထက် သိသိသာသာကြီး ပိုများနေနိုင်ပါတယ်။ ဘာလို့လဲဆိုတော့ MSA ဟာ group mean တွေ ဘယ်လောက်ကွာလဲဆိုတာအပေါ် မူတည်နေလို့ပါ။ MSW ကတော့ population variances တွေ တူညီနေသရွေ့ H0 မှန်သည်ဖြစ်စေ၊ မှားသည်ဖြစ်စေ σ² ကိုပဲ ခန့်မှန်းပါတယ်။
ဒီတော့ F Test Statistic = V.R. = MSA / MSW ရဲ့ တန်ဖိုးဟာ သိသိသာသာ ကြီးနေတယ်ဆိုရင်၊ ဒါဟာ H0 မှန်ဖို့ အခွင့်အလမ်း နည်းပါးပြီး treatments တွေကြားမှာ တကယ်ပဲ ကွာခြားမှု ရှိတယ်လို့ ကောက်ချက်ချနိုင်ပါတယ်။

Decision Rule

အသုံးပြုတဲ့ F Test Statistic ဟာ H0 မှန်တဲ့အခါ F Distribution ကို လိုက်နာပါတယ်။ F Distribution ဟာ degrees of freedom နှစ်ခုပေါ် မူတည်ပါတယ် – numerator degrees of freedom (SSA အတွက်) နဲ့ denominator degrees of freedom (SSW အတွက်)။
Completely Randomized Design မှာ df_among = k – 1 (treatments အရေအတွက် – ၁) နဲ့ df_within = N – k (စုစုပေါင်း observation အရေအတွက် – treatments အရေအတွက်) ဖြစ်ပါတယ်။
Decision rule ကတော့ ရိုးရှင်းပါတယ်: တွက်ချက်ရရှိတဲ့ F တန်ဖိုးဟာ ကျွန်တော်တို့ ရွေးချယ်ထားတဲ့ alpha (α) level အတွက် F Distribution table ကနေကြည့်ရတဲ့ critical value ထက် ကြီးနေရင် null hypothesis ကို ပယ်ချပါတယ် (reject H0)။

ANOVA Table
ဒီတွက်ချက်မှုတွေရဲ့ ရလဒ်တွေကို ANOVA Table လို့ခေါ်တဲ့ ဇယားလေးတစ်ခုမှာ ဖော်ပြလေ့ရှိပါတယ်။

ကောက်ချက် (Conclusion)
null hypothesis ကို ပယ်ချလိုက်ပြီဆိုရင် (computed F > critical F)၊ ဒါဟာ population means တွေအားလုံး တူညီနေတာ မဟုတ်ဘူး (not all population means are equal) လို့ ကောက်ချက်ချနိုင်ပါတယ်။

Post-Hoc Tests (Multiple Comparison Tests)
ANOVA က treatment group တွေအားလုံး တူညီလား၊ မတူညီဘူးလားဆိုတာကိုပဲ ပြောနိုင်ပါတယ်။ ဘယ် group တွေက တကယ်ပဲ ကွာခြားနေလဲဆိုတာကို သိချင်ရင်တော့ ANOVA လုပ်ပြီးနောက်ပိုင်းမှာ multiple comparison tests တွေ ထပ်လုပ်ရပါတယ်။ စာအုပ်ထဲမှာ Tukey’s Honestly Significant Difference (HSD) test ကို ဖော်ပြထားပါတယ်။ ဒီ test က group means တွေရဲ့ ဖြစ်နိုင်ခြေရှိတဲ့ တွဲဖက်မှုအားလုံး (all possible pairs of means) ကို နှိုင်းယှဉ်ပြီး ဘယ်တွဲဖက်မှုတွေက သိသိသာသာ ကွာခြားလဲဆိုတာကို ပြောပြနိုင်ပါတယ်။

၂။ The Randomized Complete Block Design
ဒီဒီဇိုင်းကိုတော့ experimental units တွေက တသားတည်းမဖြစ်ဘဲ heterogeneity (မတူကွဲပြားမှု) ရှိနေတဲ့အခါ အသုံးပြုပါတယ်။ ဒီ မတူကွဲပြားမှုကို ထိန်းချုပ်ဖို့အတွက် blocks တွေအဖြစ် ခွဲလိုက်ပြီး treatment တွေကို block တစ်ခုချင်းစီအတွင်းမှာ ကျပန်း သတ်မှတ်ပါတယ်။ ဥပမာ၊ လူနာတွေရဲ့ အသက်အရွယ် မတူတာကို ထိန်းချုပ်ချင်ရင် အသက်အရွယ်တူတဲ့သူတွေကို block တစ်ခုထဲထည့်ပြီး treatments တွေကို ကျပန်းပေးတာမျိုးပေါ့။ ဒီလိုလုပ်ခြင်းအားဖြင့် block ကြောင့်ဖြစ်တဲ့ variation ကို သီးခြားတိုင်းတာပြီး error variation ကနေ ဖယ်ထုတ်နိုင်ပါတယ်။

ဒီဇိုင်းရဲ့ Model
ဒီဒီဇိုင်းအတွက် model ကတော့ – xij = μ + βi + τj + eij ဒီ model က block i ရဲ့ treatment j ကနေရတဲ့ observation ကို ကိုယ်စားပြုပါတယ်။
•μ (mu) က grand mean။
•βi (beta i) က block i ရဲ့ effect ကို ကိုယ်စားပြုပါတယ်။
•τj (tau j) က treatment j ရဲ့ effect ကို ကိုယ်စားပြုပါတယ်။
•eij က error term ပါ။

ယူဆချက်များ (Assumptions)
အဓိက ယူဆချက်တွေကတော့:
•(xij) တစ်ခုချင်းစီဟာ သက်ဆိုင်ရာ populations ကနေ အရွယ်အစား ၁ ရှိတဲ့ လွတ်လပ်တဲ့ ကျပန်းနမူနာတွေ ဖြစ်ရမယ်။
•သက်ဆိုင်ရာ populations တွေဟာ ပုံမှန်ဖြန့်ဝေမှု (normally distributed) ရှိပြီး variance တွေ တူညီရမယ် (equal variances)။

ယူဆချက်များ (Hypotheses)

Null hypothesis ကတော့ treatments တွေအားလုံး effect တူညီတယ် (τj = 0 for all j) ဆိုတာပါ။ Alternative hypothesis ကတော့ treatments effects တွေအားလုံး တူညီတာ မဟုတ်ဘူးဆိုတာပါ။ စိတ်ဝင်စားဖို့ကောင်းတာက ဒီဒီဇိုင်းမှာ blocks တွေရဲ့ effect ကို များသောအားဖြင့် formal hypothesis testing မလုပ်ကြပါဘူး။

Variance Partitioning (Sum of Squares ပိုင်းခြားခြင်း)
Randomized Complete Block Design မှာ total sum of squares (SST) ကို အစိတ်အပိုင်း ၃ ခုအဖြစ် ပိုင်းခြားနိုင်ပါတယ်: SST = SSBl + SSTr + SSE
•SST: Total Sum of Squares
•SSBl: Sum of Squares due to Blocks (blocks တွေကြားက variation ကို တိုင်းတာပါတယ်)
•SSTr: Sum of Squares due to Treatments (treatments တွေကြားက variation ကို တိုင်းတာပါတယ်)
•SSE: Sum of Squares due to Error (ကျန်ရှိတဲ့ variation)

Mean Squares (MS)
•MSTr = SSTr / df_treatment
•MSBl = SSBl / df_block
•MSE = SSE / df_error

Test Statistic
treatments တွေအတွက် null hypothesis ကို စမ်းသပ်ဖို့ test statistic ကတော့ V.R. = MSTr / MSE ပါ။

Decision Rule
H0 မှန်တဲ့အခါ MSTr/MSE ဟာ F Distribution ကို လိုက်နာပါတယ်။ Numerator degrees of freedom က df_treatment = k – 1 ဖြစ်ပြီး denominator degrees of freedom က df_error = (n-1)(k-1) ဖြစ်ပါတယ် (n က blocks အရေအတွက်၊ k က treatments အရေအတွက်)။
Decision rule က Completely Randomized Design နဲ့ အတူတူပါပဲ: တွက်ချက်ရရှိတဲ့ V.R. တန်ဖိုးဟာ critical F value ထက် ကြီးရင် null hypothesis ကို ပယ်ချပါတယ်။

ANOVA Table
ဒီဒီဇိုင်းအတွက် ANOVA Table ကိုလည်း ဇယားပုံစံနဲ့ ဖော်ပြထားပါတယ်။

ကောက်ချက် (Conclusion)
null hypothesis ကို ပယ်ချလိုက်ရင် treatments effects တွေအားလုံး သုည မဟုတ်ဘူး၊ ဒါမှမဟုတ် treatments means တွေအားလုံး တူညီနေတာ မဟုတ်ဘူးလို့ ကောက်ချက်ချနိုင်ပါတယ်။
Nonparametric Alternatives
Randomized Complete Block Design ရဲ့ ယူဆချက်တွေ မပြည့်မီတဲ့အခါ Friedman procedure လိုမျိုး nonparametric alternative tests တွေ အသုံးပြုနိုင်ပါတယ်။

အခြား ဒီဇိုင်းများ
အခန်း ၈ မှာ Repeated Measures Design နဲ့ Factorial Experiment အကြောင်းကိုလည်း မိတ်ဆက်ထားပါတယ်။

•Repeated Measures Design: ဒါက experimental units (ဥပမာ – လူနာ) တစ်ခုတည်းစီကနေ အချိန်ကာလ မတူညီတဲ့ treatments တွေအောက်မှာ (သို့မဟုတ် မတူညီတဲ့အခြေအနေတွေအောက်မှာ) တိုင်းတာမှုတွေကို အကြိမ်ကြိမ် ပြုလုပ်တဲ့ ဒီဇိုင်းပါ။ Single-factor repeated measures design ဟာ subjects တွေကို blocks လိုမျိုး သဘောထားတဲ့ Randomized Complete Block Design နဲ့ တူပါတယ်။ Two-factor repeated measures design မှာတော့ factor နှစ်ခုနဲ့ သူတို့ရဲ့ interaction ကိုပါ ထည့်သွင်းစဉ်းစားပါတယ်။

•Factorial Experiment: ဒီဒီဇိုင်းကတော့ treatment တွေကို factor တစ်ခုထက်ပိုပြီး ပေါင်းစပ်ထားတဲ့ ဒီဇိုင်း ပါ။ ဥပမာ၊ ဆေးဝါး ၂ မျိုး (Factor A) ကို မတူညီတဲ့ ပမာဏ ၃ မျိုး (Factor B) နဲ့ ပေါင်းစပ်ပြီး စမ်းသပ်တာမျိုး။ ဒါဟာ treatments ၆ မျိုး (2×3) ကို စမ်းသပ်တာနဲ့ တူပါတယ်။ Factorial design ရဲ့ အရေးကြီးဆုံး အားသာချက်ကတော့ factors တွေကြားက interaction ကို စမ်းသပ်နိုင်တာပါ။ Interaction ဆိုတာက factor တစ်ခုရဲ့ effect ဟာ နောက် factor တစ်ခုရဲ့ level ပေါ် မူတည်ပြီး ပြောင်းလဲသွားတာကို ဆိုလိုပါတယ်။

ဒီဒီဇိုင်းတွေ အားလုံးဟာ variation ကို ပိုင်းခြားတဲ့ ANOVA နည်းလမ်းကိုပဲ အသုံးပြုကြပါတယ်။

နိဂုံးချုပ်အနေနဲ့

အခန်း ၈ ဟာ ANOVA လို့ခေါ်တဲ့ အရေးကြီးတဲ့ ကိန်းဂဏန်းနည်းလမ်းကို မိတ်ဆက်ပေးတဲ့ အခန်းပါ။ ANOVA ဟာ ကျန်းမာရေးသိပ္ပံနယ်ပယ်မှာ အစုအဖွဲ့များစွာရဲ့ mean တွေကို နှိုင်းယှဉ်ဖို့ အသုံးများတဲ့ နည်းလမ်းတစ်ခုပါ။ Completely Randomized Design နဲ့ Randomized Complete Block Design ဆိုတဲ့ အခြေခံဒီဇိုင်းနှစ်ခုအပြင် Repeated Measures နဲ့ Factorial Experiment လို ဒီဇိုင်းတွေကိုလည်း မိတ်ဆက်ပေးထားပါတယ်။ ANOVA ရဲ့ အဓိက အိုင်ဒီယာကို နားလည်ထားရင် နောက်ပိုင်းမှာ ပိုရှုပ်ထွေးတဲ့ linear model တွေကို နားလည်ဖို့ ပိုလွယ်ကူစေမှာပါ။


Discover more from naywinaung

Subscribe to get the latest posts sent to your email.

Leave a Reply

Your email address will not be published. Required fields are marked *

Related Post

Chapter 12 The Chi-Square DistributionChapter 12 The Chi-Square Distribution

အခန်း ၁၂ ဖြစ်တဲ့ “ခိုင်စကွဲယား ဖြန့်ဝေမှု (The Chi-Square Distribution) နဲ့ ကြိမ်နှုန်းဆိုင်ရာ ခွဲခြမ်းစိတ်ဖြာခြင်း (Analysis of Frequencies)” အကြောင်းကို ဆွေးနွေးပေးပါမယ်။ ဒီအခန်းဟာ ကျွန်တော်တို့ အရင်က လေ့လာခဲ့တဲ့ ကိန်းဂဏာန်း တိုင်းတာမှုတွေ ဒါမှမဟုတ် ဆက်နွယ်မှုတွေနဲ့ မတူဘဲ အရေအတွက် (counts) ဒါမှမဟုတ် ကြိမ်နှုန်း (frequencies)

statistical inferencestatistical inference

Chapter 6 ဟာ စာရင်းအင်းဆိုင်ရာ ကောက်ချက်ချခြင်း (statistical inference) မှာ ပထမဆုံးအရေးကြီးတဲ့အပိုင်းဖြစ်တဲ့ “ခန့်မှန်းခြင်း” (estimation) ကို အဓိက ရှင်းလင်းထားပါတယ်။ ဒီခန့်မှန်းခြင်း ဆိုတာကတော့ Chapter 5 မှာ တင်ပြခဲ့တဲ့ sampling distribution သီအိုရီနဲ့ Central Limit Theorem ကို အခြေခံထားတာပါ။Chapter 6 ရဲ့

Chapter 5 SOME IMPORTANT SAMPLING DISTRIBUTIONSChapter 5 SOME IMPORTANT SAMPLING DISTRIBUTIONS

အခန်း (၅) တွင်ပါဝင်သော “အရေးကြီးသော နမူနာဖြန့်ဝေမှုအချို့” (SOME IMPORTANT SAMPLING DISTRIBUTIONS) သည် စာရင်းအင်းဘာသာရပ်ရှိ အရေးကြီးဆုံး အခန်းများထဲမှ တစ်ခုဖြစ်ပြီး၊ ဖော်ပြချက်ဆိုင်ရာစာရင်းအင်း (descriptive statistics) နှင့် ဖြစ်နိုင်ခြေသဘောတရား (probability) တို့မှ ကောက်ချက်ဆွဲခြင်းဆိုင်ရာစာရင်းအင်း (inferential statistics) သို့ ကူးပြောင်းရာတွင် အဓိကတံတားအဖြစ် တည်ရှိနေသည်။ ကောက်ချက်ဆွဲခြင်းဆိုသည်မှာ လူဦးရေ