メインコンテンツに移動
XLSTATはLumiveroグループに参加しています。詳しくはこちら

ExcelでのCohenのカッパのチュートリアル

このチュートリアルは、XLSTATを用いてExcel内で2人の審査員の間の一致を測定するCohenのカッパ を計算して解釈する方法を示します。

Cohenのカッパを計算し解釈するデータセット

データと結果のExcelシートは、下記のボタンをクリックしてダウンロードできます: データをダウンロード 2人の医師が62人の患者で疾患の有無を別々に評価しました。下記に示すように、結果は2つの質的変数 (doctor 1: healthy or diseased; doctor 2: healthy or diseased)をクロスするクロス表または分割表で収集されました。 34 人の患者が両方の医師によって healthy (健康)と診断され; 4 人は、doctor 1 がdiseased (疾患)とdoctor 2がhealthy(健康)と診断されました(その他省略)。 Cohen's Kappa in XLSTAT, dataset データは架空でこのチュートリアルのために作成されました。

Cohenのカッパの計算および解釈に関するこのチュートリアルの目的

このチュートリアルの目的は、疾患の診断での2人の医師の間の一致を定量化することです。これは、検者間信頼性(inter-rater reliability)とも呼びます。 一致を定量化するには、単純に両医師が一致するパーセント・ケース(分割表の対角線のケース)を計算するでしょう。それは (34 + 21)*100 / 62 = 89% です。 この統計量には重要な弱点があります。それは、ランダムに発生する一致を考慮していません。それに反して、Cohenのカッパ(Kappa)は、ランダム性の効果を除去しながら一致を定量化し、したがって、よい再現性を確かにします。

XLSTATでのCohenのカッパ統計量のセットアップ

XLSTATを起動すると、 XLSTAT / 相関/属性相関検定 / 分割表での検定 コマンド(下図)を選択してください。 XLSTAT correlation/association tests menu ボタンをクリックすると、ダイアログ・ボックスが現れます。 XLSTAT tests on contingency tables dialog box, general tab 分割表オプションを有効にして、分割表フィールドでデータを選択してください。 出力タブで、属性相関係数オプションが有効になっていることを確認してください。

XLSTAT tests on contingency tables dialog box, outputs tab

Cohenのカッパ係数の解釈

OK ボタンをクリックすると、複数の属性相関係数を含む結果が現れます: XLSTAT Cohen's Kappa results Pearsonの相関係数と似て、Cohenのカッパは -1 から +1 の間の値をとり: - -1 は完全な不一致を反映し、

  • +1 は完全な一致を反映し、
  • 0 は完全なランダム性を反映します。

Good agreement しきい値は、1つのフィールドまたは質問からもう1つに変化させます。ただし、Landis and Koch (1977) がカッパ値によって一致品質を記述するために、下記のスケールを確立しました: < 0: 一致なし 0 - 0.2: 小さい 0.2 - 0.4: 偏りのない一致 0.4 - 0.6: 穏やか 0.6 - 0.8: 相当な 0.8 – 1: ほとんど完全 我々の事例では、Cohenのカッパ値は 0.76 で、上記のスケールによるとかなりの一致を示します。

さらに: 属性のためのGage R&R

属性に関するGage R&R (再現性と反復性) 分析は、 とくに審査員が彼ら自身とどれだけ一致するかを定量化するためにCohenのカッパを使用しまうす。

この記事は役に立ちましたか?

  • ウイ
  • いいえ