※ 引述《circlelee (想轉心理系)》之銘言:
: power=會發生拒絕虛無假設的機率
: alpha=type 1 error的機率
: 假設power=0.6
: alpha=0.05
: 那麼我們可以說
: 做了100次的研究中會有60次達到顯著的結果 (power)
: 但這60次顯著中,會有5%是錯誤的顯著即犯了type 1 error
: 所以60次的顯著中,會有60*0.05=3次的錯誤顯著。
: 如果觀察分配的平均值與比較分配的平均值相等時
: 表示完全不顯著的情形,在完全不顯著的情況之下,
: 會發生顯著的情況,全是由type 1 error所造成,所以此時power=alpha
: 此即為power的最小值。
如題
: : 什麼情況power=alpha值
: :
: : 什麼情況beta=power
: :
原文兩篇一起回答
:接下來先回答下面的兩個
三其實很好回答 只要懂上一篇的內容加上會畫虛無假設跟對立假設的分配圖
答案其實很好想出來(提示其實已經在上一篇裡面有給到了
就是對立假設的μ等於臨界值時β就等於power=0.5
至於第一題 power=alpha的情況 不知道是C大想問的到底是什麼?
如果問的是什麼時候power的機率會跟alpha一樣大?或著是想問其他的?
這裡姑且就當做是要問兩者機率一樣的時
但是C大在最上面一段的回應當中有幾個地方有問題
第一:power的定義不是"會發生拒絕虛無假設的機率"
而是"當虛無假設為假時 正確拒絕虛無假設的機率"
這兩句話看起來差不多但是背後概念完全不一樣
power跟alpha其實是兩回事但都是條件機率
power=P(rejectH0∣H1 true(有的書上或維基寫的是H0 fales))
alpha=P(rejectH0∣H0 true)
這兩個一樣都是會拒絕虛無假設的機率 但是發生的前提不一樣
所以只有當H0為假的時候power機率才會成立
接下來我們來說推論統計
推統分
直接推論 (估計:分點估跟區間估計)
跟
間接推論(假設檢定)
這兩者都會用到中央極限定理 並不是像C大說的只有估計才會用到
理由我懶得說 請自行翻書找資料
區間估計需要點估計值跟一個範圍區間來代表母數有多大範圍落入此區間
加上產生的估計誤差
但直接推論(估計)的結果並不足以完全支持我們想支持的理論
後來科學哲學家Popper提出否證論(1968)(詳細內容有興趣者可自行拜大神一下)
才產生假設檢定這東西
回歸正題
C大說:
『假設power=0.6
: alpha=0.05
: 那麼我們可以說
: 做了100次的研究中會有60次達到顯著的結果 (power)
: 但這60次顯著中,會有5%是錯誤的顯著即犯了type 1 error
: 所以60次的顯著中,會有60*0.05=3次的錯誤顯著。
: 如果觀察分配的平均值與比較分配的平均值相等時
: 表示完全不顯著的情形,在完全不顯著的情況之下,
: 會發生顯著的情況,全是由type 1 error所造成,所以此時power=alpha
: 此即為power的最小值。』
這裡一樣有幾個問題
power並不是這樣解釋的
因為如果照上面說的"做了100次的研究中會有60次達到顯著的結果"
那就不是power的定義而比較像是alpha的定義(因為alpha才是顯著區啊!)
照定義及敘述 那這樣這0.6應該是alpha 而不是power
所以我才會說C大這邊的論述實際上跟power的定義無關:
"做了100次的研究中會有60次達到顯著的結果"
"但這60次顯著中,會有5%是錯誤的顯著"
在此借用當中的數據重新論述:
實際上是區間估計的概念論述 因為只有屬直接推論的區間估計才會這樣論述實驗結果
而且真正要表示也應該是(只能擇一):
"如果alpha=0.05 那表示這100次實驗當中會有100*0.05=5次犯錯"(這代表C.I=95%)
或著是說:
"在C.I(信賴區間)=60%的情況下
會包含支持實驗的結果
並且會有40%的機率犯錯"
如果要用假設檢定的方式用同樣的數據重新論述,則:
power=0.6
alpha=0.05
應該是說:當我們做一次實驗(不用到一百次)
在H0為真的情況下仍會有0.05的機率犯錯
或 在H0為假的情況下接受H1(或拒絕H0的機率)=0.6
最後
『如果觀察分配的平均值與比較分配的平均值相等時
: 表示完全不顯著的情形,在完全不顯著的情況之下,
: 會發生顯著的情況,全是由type 1 error所造成,所以此時power=alpha
: 此即為power的最小值。』
power與alpha的關係如前所述 是完全不同的事情 所以概念上不會相等
當然你可以說我alpha=0.05 power也0.05在兩平均相等的情況 嗯這沒問題
但是power最小值並不是在這個時候 power最小值其實是0 原因請自行思考
所以C大請不要激動 我的回文針對的是你把區間估計的想法混入假設檢定的解釋而不知
小弟並沒有說你全錯或是不對 我只是指出觀念混淆的地方而已
並且你會說 "所以此時power=alpha 此即為power的最小值。"
這表示你對這兩者的關係不夠清楚才會認為power最小值會等於alpha
因為你把這兩者混在一起看了
所以我的回文並不是說你沒有清楚交代這兩者
而是要跟你說你弄混了這兩者的概念
最後我補充power真正的用途
影響power大小的因素有四個
1.alpha大小
2.H0&H1的距離大小
3.母體變異數大小
4.sample size大小
以上各項的變化皆需在其它三者固定的情況下才成立
至於怎麼影響一樣自行畫圖應可理解
power實際上決定的是統計檢定的敏感度 power越大越敏感 越容易正確的拒絕H0
換句話說 當我有μ0跟μ1時 我有多少的能力去區分這兩者有無不同
該能力就是power
另外 當μ0&μ1很近的時候 要能分出兩者不同會很難 因為不容易顯著
但如果我們就是想要分出不同的時候怎麼辦呢?
那就是加大sameple size這樣就能提升power來達到結果顯著的目地
所以如果將來作實驗如果不顯著
但卻想要達顯著最好的方試就是加大n的數量 因為通常前三者一旦固定就很難動手腳
但是數量上卻是可以改變的
這樣的方式就是所謂的power analysis的一部份
以上
有缺漏錯誤還請指教
補充一下:C大之前回文當中的意思應該是說估計跟假設檢定無關
實際上是有關的(這兩者是一體兩面
因為我一樣能用區間估計來做假設檢定的運算並結論
(參 林清山:心理與教育統計學 Ch11-2.2 p.233~237)
假設檢定只是加進了否證的邏輯
但是真正在驗證的方法還是用估計的方式並加入犯錯的風險這兩者的概念
想想看就知道 實際上我們就是在估計母數
所以不管是H0或H1的平均數才會都以μ表示
不管是估計觀察值是否來自該母體 或著是兩個不同的母體
背後隱藏的都是估計的概念