加載中........
×

Fleiss kappa 和 Cohen kappa 的比較

2019-10-15 作者:不詳   來源:網絡 我要評論0
Tags: 一致性  

什么是 kappa?

kappa 衡量在評估相同樣本時多名評估員所做名義或順序評估的一致程度。

例如,兩名醫生對 45 位患者是否患有某種特定疾病進行評估。醫生診斷病情(陽性或陰性)一致的頻率有多高?另一個名義評估的示例是檢驗員對電視屏幕上缺陷的評級。他們對氣泡、起皮和塵土的分類是否意見一致?

解釋 kappa 值

Kappa 值的范圍為 –1 到 +1。kappa 值越高,一致性就越強。當:

  • Kappa = 1 時,表明完全一致。
  • Kappa = 0 時,則一致性與偶然預期的相同。
  • Kappa < 0 時,一致性比偶然預期的還要弱,不過這種情況很少發生。

AIAG建議 kappa 值至少為 0.75 表示一致性強。但是,最好使用較大的 kappa 值,如 0.90。

當進行順序評級時(比如按 1 到 5 個等級對缺陷嚴重性進行評定),Kendall 系數(考慮了排序因素)通常是比單獨使用 kappa 更適合用來評估關聯度的統計量。

Fleiss kappa 和 Cohen kappa 的比較

Minitab 可以計算 Fleiss 的 kappa 和 Cohen 的 kappa。Cohen 的 kappa 是常用于測量兩個評定員間的評估一致性的統計數據。Fleiss 的 kappa 是對 2 個以上評定員的 Cohen 的 kappa 的一般化。在 屬性一致性分析中,Minitab 默認情況下,Minitab 計算 Fleiss 的 kappa 并適時提供計算 Cohen 的 kappa 的選項。

注意

當數據滿足以下要求時,Minitab 可以計算 Cohen 的 kappa:

  • 要為“檢驗員之間”計算 Cohen 的 kappa,每個檢驗員必須有 2 個試驗。
  • 要為“檢驗員之間”計算 Cohen 的 kappa,必須有 2 個均具有 1 個試驗的檢驗員。
  • 要為“每個檢驗員與標準”和“所有檢驗員與標準”計算 Cohen 的 kappa,您必須為每個樣本提供標準。

Fleiss 的 kappa 和 Cohen 的 kappa 使用不同方法估計偶然出現一致性的概率。Fleiss 的 kappa 假設檢驗員是從一組可用檢驗員中隨機選擇的。Cohen 的 kappa 假設檢驗員是特意選擇且保持固定。因此,Fleiss 的 kappa 和 Cohen 的 kappa 使用不同方法估計一致性的概率。



小提示:78%用戶已下載梅斯醫學APP,更方便閱讀和交流,請掃描二維碼直接下載APP

只有APP中用戶,且經認證才能發表評論!馬上下載

web對話
彩吧论坛首