項目応答理論

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動: 案内検索

項目応答理論(こうもくおうとうりろん)または項目反応理論(こうもくはんのうりろん)、略称IRT (Item Response Theory; Item Latent Theory) は、評価項目群への応答に基づいて、被験者の特性(認識能力、物理的能力、技術、知識、態度、人格特徴等)や、評価項目の難易度・識別力を測定するための試験理論である。この理論の主な特徴は、個人の能力値、項目の難易度といったパラメータを、評価項目への正誤のような離散的な結果から確率論的に求めようとする点である。

IRTでは、能力値や難易度のパラメータを推定し、データがモデルにどれくらい適合しているかを確かめ、評価項目の適切さを吟味することができる。従って、試験を開発・洗練させ、試験項目のストックを保守し、複数の試験の難易度を同等と見なす(例えば異なる時期に行われた試験の結果の比較をする)ためにIRTは有用である。また、コンピュータ適応型テスト (Computerized Adaptive Testing) もIRTによって可能になる。

より古典的なテスト理論(素点方式、偏差値方式)と比べると、IRTは、試験者が評価項目の信頼性の改善に役に立つ情報を提供し得る、標本(受験者)依存性・テスト依存性にとらわれずに不変的に受験者の能力値とテスト項目の難易度を求められる、という利点がある。

欧米諸国では既に広く使用されているが、日本で試験にIRTを用いるようになったのは最近のことである。

IRTモデル[編集]

一般的なモデルでは、項目への離散的な応答(正誤など)の確率が、1つの人パラメータと1つ以上の項目パラメータによる関数であるという数学的な仮説に基づいている。用いられる変数は以下の通りである。

{\theta}:人パラメータ
各受験者の特性の大きさを表す実数値。
a_i:識別パラメータ
項目iが被験者の能力を識別する力を表す実数値。
b_i:難易度(困難度)パラメータ
項目iの難しさを表す実数値。一般的には各項目に50%の正答率を持つ被験者の能力値を基準として決められている。
c_i:当て推量パラメータ
多肢選択形式のテストの場合に、項目iに被験者が偶然に正答できる確率を表す実数値。

基本的な考え方としては、人パラメータと、項目の難易度パラメータの差をとり、ロジスティック曲線に当てはめて、正答する確率を求めるというものである。例えば能力試験において、ある項目が被験者にとって非常に簡単であった場合、その正答率は限りなく1に近づき、逆にある項目が被験者にとって非常に難しいものであった場合、その正答率は限りなく0(パラメータcを用いる場合はc_i)に近づく。

最も簡単な1パラメータロジスティック (1PL) モデル(ラッシュモデルとも呼ばれる)では、変数に{\theta}b_iのみを用いる。しかし適用のための条件は厳しくなっている。このモデルでは、項目iに正答する確率は次の式で与えられる。


p_i({\theta})=\frac{1}{1+e^{-({\theta}-b_i)}}

2パラメータロジスティック(2PL)モデルでは、さらにa_iを用い、各項目が評価にとってどの程度適正な判断基準であるかを変数に組み込む。このモデルでは、項目iに正答する確率は次の式で与えられる。


p_i({\theta})=\frac{1}{1+e^{-Da_i({\theta}-b_i)}}

ここで、定数Dは1.701という値で、ロジスティック関数を累積正規分布関数に近似するためのもので、確率が関数の定義域(一般的に-3 - 3)内で0.01以上異ならないようになっている。なお、IRTモデルは当初は普通の累積正規分布関数が用いられたが、このように近似されたロジスティックモデルを使うことで、大きく計算を単純化することができた。

3パラメータロジスティック(3PL)モデルでは、多肢選択形式の場合において、適当に選択肢を選択しても偶然正答する確率c_iを考慮に入れ、項目iに正答する確率は次の式で与えられる。


p_i({\theta})=c_i + \frac{(1-c_i)}{1+e^{-Da_i({\theta}-b_i)}}

人パラメータは被験者の評価の対象となっている1次元的な特性の大きさを表す。この特性は因子分析の1つの因子に類似している。また、個々の項目や人は相互に独立であり、集合的に直交であると仮定されている。すなわち、ある項目の正誤は他の項目の正誤に影響せず、ある人の正誤は他の人の正誤に影響しないという仮定を置いている。

項目パラメータは、ある項目の性質を示す。項目パラメータが定まると、受験者がその項目に正答する確率p_iは各受験者の能力{\theta}の1変数のみを持つ関数になり、縦軸に正答率、横軸に能力値としたグラフが描ける。このグラフは項目特性曲線 (ICC; item characteristic curve) と呼ばれる。パラメータbは項目の難しさであり、この値は人パラメータと同じスケール上にある。パラメータaは項目特性曲線の傾きを決定し、その項目が個人の特性の水準を識別する程度を示す。曲線の傾きが大きいほど、項目の難しさと人の特性の大きさに差があるときに回答の正誤がくっきり分かれることを示す。最後のパラメータcは、項目特性曲線の負の側の漸近線である。すなわち、これは非常に低い能力を持つ人がこの項目に偶然正答する確率を示す。

各項目は互いに独立であるという前提を置いているので、項目特性曲線は加法的である。よって、すべての項目特性曲線を足したものが求められる。これはテスト特性曲線と呼ばれる。


T({\theta})=\sum_{i=1}^{N} p_i({\theta})

試験のスコアはこのテスト特性曲線によって求められる。テスト特性曲線は{\theta}の関数であり、T({\theta})の値を受験者のスコアとする。よって、IRTによるスコアは従来の方法によるスコアと比べ、計算・解釈において非常に異なっている。しかし、ほとんどのテストにおいて、値{\theta}と従来のスコアとの(線形)相関関係は非常に高い(.95以上になることが多い)。したがって、従来のスコアに比べ、IRTのスコアのグラフは累積度数分布曲線の形に近くなる。

ここまでで示したモデルでは、1次元的な特性と、項目に対する正解・不正解のような2値のいずれかの応答を前提としていた。しかし、多値ラッシュモデルのように多値(例えば0:全く誤り 1:ほとんど誤り 2:概ね正しい 3:完全に正しい、の4値)をとるように拡張されたモデルや、多次元的な特性を仮定したモデルも存在する。

パラメータの推定[編集]

以上では{\theta}a_ib_ic_iの各パラメータが存在するものとして考えてきたが、それぞれの真の値は一般的に未知である。よって、離散的な回答からそれぞれの値を推定することもIRTにおける重要な問題である。

その推定方法としては、最尤推定法ベイズ推定法などが知られている。

情報関数[編集]

IRTの主な知見の1つは信頼性の概念を拡張したことである。伝統的に、信頼性とは測定の精度を示すものであり、真のスコアと観察されたスコアの誤差の比率など、様々な方法で定義される単一の指標で現される。古典的なテスト理論では、クロンバックのα係数などがテスト全体としての信頼性の指標を表すものとして知られている。しかしIRTによると、評価の精度はテストの成績の全範囲にわたって均一ではないことが明らかになる。一般的に、試験点数の範囲の端のスコアは、中央に近いスコアより多くの誤差を含んでいる。

IRTでは、項目・テストのそれぞれについて、信頼性の概念を置き換える情報関数 (Information Function) という概念が用いられる。例えばフィッシャー情報理論に従って、ラッシュモデルの場合には、項目情報関数は単純に正しい応答の確率と不正確な応答の確率の積で与えられる。すなわち、不正確な応答の確率をq_i({\theta})=1-p_i({\theta})で表すと、以下の式で与えられる。


I({\theta})=p_i({\theta}) q_i({\theta})

推定の標準誤差はテスト情報の逆数である。すなわち以下の式で表される。


\mbox{SE}({\theta})=1/\sqrt{I({\theta})}

従って、情報量が多いほど、測定の間違いがより少ない(被験者の能力の推定がより正確である)ことを意味する。

2PL、3PLモデルでもほぼ同様であるが、他のパラメータも考慮に入る。2PL、3PLモデルのための項目情報関数はそれぞれ以下の式で表される。


I({\theta})=a_i^2 p_i({\theta}) q_i({\theta})


I({\theta})=a_i^2 \frac{q_i({\theta})}{p_i({\theta})} \frac{(p_i({\theta})-c_i)^2}{(1-c_i)^2}

各項目は互いに独立であるという前提を置いているので、項目情報関数は加法的である。テスト情報関数は単純にその試験における各項目の項目情報関数の和で求められる。テスト情報関数は、古典的なテスト理論における信頼性の概念を置き換えるものになる。

この性質を用いて、テスト項目の適切性に理論的根拠を与えることや、ある目的に特化したテストを作ることが可能になる。例えば、ある合格基準点を超えるか超えないかのみで合格・不合格が結果として与えられる(実際の合格点は重要でない)テストを作るのに有効なのは、合格基準点の近くで大きい情報が得られる項目だけを集めてテストを作ることである。また、コンピュータ適応型テストのように、ある時点での回答状況に応じて受験者の能力値を推定し、次にその受験者の能力値周辺で大きな情報が得られる問題を出題するということも可能になる。

等化[編集]

等化 (equiting) とは、異なったテストの結果、異なった受験者に対してのテストの結果を、項目パラメータや被験者能力値に関係なく、共通の原点と単位をもつ尺度に変換することである。等化には、水平的等化、垂直的等化の2種類がある。

水平的等化 (horizontal equating)
同一の能力水準に対して複数のテストの難易度間に共通の尺度を設定すること
垂直的等化 (vertical equating)
異なった難易度のテスト間に異なった尺度を設定すること

古典的なテスト理論においては、テスト依存性や受験者依存性がつきまとうので等化を実現することは困難であった。しかしIRTによる項目パラメータは不変的であり、理論的には等化の必要はない。しかし、実際には一定の定数によって、2つのテストの得点を同一尺度上に変換することがよく行われる。この手続きは以下の式で行われる。


{\theta}'={\alpha}{\theta}+{\beta}

{\theta}'は等化された能力値で、{\alpha}{\beta}は等化定数と呼ばれている。またこのとき、項目パラメータは以下のように調節される。


a_i'=\frac{a_i}{\alpha}


b_i'={\alpha}b_i+{\beta}

等化定数{\alpha}{\beta}の推定には、共通の受験者または共通の項目が必要となる。そして、等化のための基準には回帰係数、平均値と標準偏差、項目特性曲線の特徴等が用いられる。

問題の難易度に対する試験のスコア算出の関係[編集]

科学者が考案した項目応答理論は非常に複雑な手法で試験のスコアを算出する為、科学者以外には問題の難易度と項目応答理論による配点の高低の相関関係の理解は困難である。その為、項目応答理論は「仮説」を立てて理解されている。

問題の難易度と配点の高低の相関関係の「仮説」は2種類ある。

  • 問題の難易度が高い程、配点が高くなる関係がある
  • 問題の難易度が低い場合は配点が低くなり、逆に問題の難易度が高い(正答率が偶然に正答する確率と同一)場合も配点が低くなる関係がある

一部では、全問正解ではないにも関わらずスコア満点の場合がある為、配点が0点の問題の存在が「予想」されている。

また、一部では項目応答理論には配点の概念自体が存在しないとの「仮説」も提唱されている(その場合でも、正答数が同一として、どの難易度の問題の正答が多いかによるスコア高低の傾向が存在すると「予想」されている)。

IRTを使用している主なテスト[編集]

関連項目[編集]

外部リンク[編集]