コンテンツにスキップ

確証バイアス

出典: フリー百科事典『ウィキペディア(Wikipedia)』

(かくしょうバイアス、: confirmation bias)とは、認知心理学社会心理学における用語で、仮説や信念を検証する際にそれを支持する情報ばかりを集め、反証する情報を無視または集めようとしない傾向のこと[1][2]認知バイアスの一種。また、その結果として稀な事象の起こる確率を過大評価しがちであることも知られている[3]追認バイアスともいう。

ウェイソン選択課題

[編集]

図のような4枚のカードは、片面には白地に数字が書かれ、もう片面は何色かで塗られている。「片面に偶数が書かれた全てのカードは、もう片面が赤色である」という仮説を実証または反証するために、どのカードを裏返す必要が発生しうるか、と尋ねられたとする。

この解答としては「8と赤色のカード」あるいは「8のカード」が多い。しかしながら、両解答とも、8のカードの裏が赤色でなければ反証できるが、赤色であっても実証を完了しない。また、前者の解答では、赤色のカードを裏返すのが余計である。

与えられた仮説は「全てのカードは、片面に偶数が書かれていないか、もう片面が赤色である」「片面に偶数が書かれていてかつ、もう片面が赤色でないカードは、存在しない」と同義である。

同説を反証するには、「片面は偶数でかつ、もう片面は赤色でないカードを探し出すことが必要十分である。一方で、同説を実証するには、「片面は偶数でかつ、もう片面は赤色でない可能性を予期すべき全てのカード、すなわち偶数のカード赤色以外の色のカード全て裏返し、どれも該当しないことを確認することが必要十分である。したがって、8と青色のカードを裏返すのが正解である。

赤色のカードを裏返して確認することは、一見、仮説を支持するように思えよう。しかしながら、このカードは出題時点で既に「仮説に反しないカード」と分かりきっているだけであり、仮説の実証にも反証にも寄与しない。

赤色のカードを裏返してしまうという論理的誤りは、確証バイアスと関係があるとは考えられなかった。しかし、ウェイソンは確証バイアスを用いて、「青色のカードをひっくり返して偶数かどうか確かめなかった」と仮説を反証するために情報を集めようとせず、不正解に答える人が多いという結果を説明した[2][4]

「ある命題を実証するためには、その命題の対偶についても確認しておく必要がある」ということを考慮しなければ、もし誰かが意図的に「人目に付く偶数が見えるカードの裏は絶対に赤色である」と仕向ければ、「偶数のカードの裏は赤色である」という仮説は成り立つかのように思い込まされてしまう。

ウェイソン選択課題が言いたいもう一つのことは、現実には「偶数 → ¬ 赤」と「¬ 赤 → 偶数」という反例を観察しても、人々の考え方、つまり「偶数 → 赤」という仮説に対する先入観は変わらないということである[2]

確証バイアスの例

[編集]

グレゴール・ヨハン・メンデルが論文で報告した実験データの一部が、「メンデルの法則の理論値に合いすぎている」として、確証バイアスによってデータの作為的な選別が行われたと推測され批判された、という過去の事例があり、現在でも極めて著名である。しかし、その批判の一部にもまた問題があったことがわかっており、再検討の結果は2008年に公刊されている(詳細は「メンデルの法則#メンデルの実験データと理論の整合性について」を参照)。

実社会への影響

[編集]

ソーシャルメディア

[編集]

ソーシャルメディアでは、フィルターバブル、または「アルゴリズム編集」を使用することで、自分が今まで見てきたウェブとは反対意見のウェブをみる機会が自動的に減っていくため、確証バイアスが増幅される[5]。確証バイアスは、社会がフィルターバブルの影響から逃れられない理由だと主張される。なぜなら、人は自分の価値観や信念に一致する情報を探そうとする生来の心理的な傾向を持つためである[6]。この「アルゴリズム編集」は多様な視点や情報を取り除いており、フィルターバブルを無くさなければ有権者は十分な情報に基づいた政治的決定を下すことができないだろうと主張される[7][5]

金融

[編集]

確証バイアスは、投資家を自信過剰にし、彼らの投資戦略が失敗するであろう証拠を無視させる[8][9] 。大統領選挙を株式市場に模擬した実験では、参加者は確証バイアスに抵抗することでより多くの利益を得た。例えば、討論会の成績を解釈する際、参加者が支持する党派に関わらず中立に評価した方が利益を上げる傾向にあった[10]。確証バイアスへの対抗手段として、投資家は「議論のため」反対意見の採用を試すことができる[11]。また一つのテクニックとして、自分の投資が破綻することを想像し、次に なぜ失敗したのか最も説得力のある説明を考える方法がある[8]

医療およびメンタルヘルス

[編集]

心理学者のレイモンド・ニッカーソンは、科学的医学の到来前に何世紀にもわたって用いられた効果のない医療処置に対する確証バイアスを非難する[12]:192。医者は患者が病気から回復した場合、自然に回復したというような代わりの説明を探すよりも、治療が成功したためとみなした。

偏った情報を受入れることは、人が代替医療に引き付けられる要因である。代替医療の支持者は肯定的な事例証拠には心を揺り動かされるが、科学的証拠は極度に批判的に扱う[13][14][15]。また、確証バイアスは患者からの圧力により医師に不要な医療行為を行わせる可能性もある[16]

認知療法は、1960年代初頭にアーロン・ベックによって開発され、一般的な手法となっている[17]。ベックによると、偏った情報処理は抑うつの要因となっている[18]。 その手法は、否定的な考えを選択的に強化するのではなく、証拠を公平に扱うよう教えるものである[19]恐怖症病気不安症も、脅迫的な情報の確証バイアスをもつことが示されている[20]

確証バイアスを利用した医療ビジネスの例では、ANK免疫細胞療法などに代表される末期がん患者をターゲットとする免疫療法などの例がある[21]

政治と司法

[編集]

ニッカーソンは、司法や政治的背景での推論は潜在意識的に偏っていることがあると主張する。裁判官、陪審員、または政府が既に一方へ肩入れしているという結論を支持している[12]:191–193 。陪審裁判での証拠は複雑になる可能性があり、また陪審員は多くの場合早い段階で判決に関する決定に達することが多い。そのため、彼らが途中から偏向した態度で裁判に臨むことが考えられる。 陪審員が より多くの証拠を見るにつれて、彼らの見解においてより極端になるという予測は模擬裁判の実験において裏付けられた[22][23]糾問主義当事者主義の刑事司法制度は何れも確証バイアスの影響を受ける[24]

確証バイアスは、感情的な議論から戦争まで、対立を引き起こす要因となり得る。それぞれの当事者が自分の好みで証拠を解釈することによって、自分がより強い立場にあると過信することがある[19]。一方、確証バイアスは、差し迫ったまたは初期の対立の兆候を、無視または誤解させる可能性がある。例えば、心理学者スチュアート・サザーランドとトマス・キーダは、1941年当時のアメリカ海軍提督ハズバンド・キンメルが日本軍による真珠湾攻撃の兆候を軽視した際に確証バイアスがあったと主張した[25][26]

フィリップ・E・テットロックによる政治的専門家の20年にわたる研究は、全体的に彼らの予測は偶然当たるよりも勝っていないことを発見した。テットロックは専門家を複数の仮説を維持する「キツネ」と、より独断的な「ハリネズミ」に分けた。一般的に、ハリネズミの方が正確ではなかった。テットロックは、彼らの失敗が確証バイアスにあるためと非難した。特に専門家が彼らの持つ既存の理論に対し、新しい情報が矛盾する場合にそれを利用できないためとした[27]

科学

[編集]

科学的思考の特徴は、証拠の確認と同じくらい偽証について調査することである。しかしながら、科学の歴史の中で何度も、科学者たちは好ましくないデータを選択的に解釈するか無視することによって新しい発見に抵抗してきた[12]:192–94。これまでの学術調査より、科学的研究の質の評価は確証バイアスに対し特に弱いとみられる。科学者たちは事前の考えと一致しない発見の研究よりも、事前の考えと一致する研究を評価することが何度か見受けられた[28][29][30]。 研究課題や実験計画が適切でありデータが明確かつ包括的に記述されている場合、発見された結果は科学界にとって重要である。本来ならば、その結果が 現在の理論的予測に一致するかに関わらず偏見的に見られるべきではない[30]

科学的研究の背景によっては、不適切または矛盾する証拠に直面しても、確証バイアスにより理論や研究プログラムを維持してしまう可能性がある[25][31]超心理学の分野は特に影響を受けてきた[32]

実験者の確証バイアスは、どのデータが報告されるかにより影響を及ぼす可能性がある。実験者の期待と矛盾するデータは、信頼できないものとしてより容易に捨てられるかもしれず、いわゆる引出し効果(お蔵入り効果)を生む。 この傾向に対抗するため、科学的な教育はバイアスを防ぐ方法を教えている[33]。例えば、(システマティック・レビューと相まった)ランダム化比較試験実験計画法はバイアスを最小限に抑えることを目的としている[33][34]査読(ピアレビュー)の社会的プロセスは、そのプロセス自体がバイアスの影響を受けやすい場合でも、個々の科学者のバイアスの影響を軽減すると考えられている[30][35][36][37]。確証バイアスは客観的な評価を行う際、持論と不適合な研究結果に対し特に有害になる可能性がある。バイアスの影響下にある個人は、持論とは反対の証拠を原則的に弱いと考え、自分の信念を修正することにほとんど真剣な考えをいだかない[29]。 科学的なイノベイターはしばしば科学界からの抵抗にあい、物議を醸す結果を提示する研究はしばしば厳しい査読を受ける[38]

社会心理学

[編集]

社会心理学者は、人々が自分自身についての情報を外界に求めたり解釈したりする方法に二つの傾向を確認した。自己証明効果により、人は、様々ある他者からの評価の中で、自己評価と一致するものだけに注目する傾向がある。また、自己高揚動機により、人は、様々ある他者からの評価の中で、自分について肯定的なものだけに注目する傾向がある[39]。実験では、人々は自分自身のイメージと一致しない評価が与えられた際、一致する場合よりも、関心を向けることや記憶することが少なかった[40][41][42]。彼らは 自分自身のイメージと一致しない評価を信頼できないと解釈することで その影響を軽減した[40][43][44]。類似の実験では、否定的な評価よりも肯定的な評価が好まれた。また、否定的な評価をする人々よりも、肯定的な評価をする人々の方が好まれた[39]

超常現象への信念

[編集]

リスナーがサイキックリーディングに引き付けられる要因の一つとして、リスナーが彼ら自身の人生に合う霊的な声明を受け取ることにある。このとき確証バイアスが使われている[45]。霊能者は、各座席に向けて多数のあいまいな発言をすることによって、リスナーが自分で一致を見つける機会をより多く与える。これはコールド・リーディングのテクニックの一つである。これを使うと、霊能者はクライアントに関する事前の情報なしに主観的で印象的なリーディングをすることができる[45]サイコップメンバーのジェームズ・ランディは、霊能者のリーディングの記録と、霊能者が何を言ったかのクライアントの報告とを比較した。その結果、クライアントが「当たり」について強く選択的に思い出したことを発見した[46]

ニッカーソンは、現実世界における確証バイアスの印象的な例として、数秘術的なピラミッド学英語版、エジプトのピラミッドの割合で意味を見つけることの実践に言及している[12]:190。たとえば、ギザの大ピラミッドのどこかの長さを結合または操作する多くの方法で、様々な長さの測定を行うことができる。それゆえ、これらの数字を選択的に見ている人々が、例えば地球の寸法と一見 印象的な一致を見つけることはほとんど避けられない[12]:190

求人と選定

[編集]

求人時のバイアスは大きな問題となっている。 バイアスは全ての雇用の決定において影響を及ぼし、多様で包括的な組織作りを妨げる可能性がある。様々な無意識のバイアスが採用決定に影響を与える。確証バイアスは採用面接の段階で主だったものである[47]

脚注

[編集]
  1. ^ 箱田 et al. 2013.
  2. ^ a b c Lecture 1.5: Confirmation Bias - WEEK 1: Social Perceptions and Misperceptions”. Coursera. 2023年9月9日閲覧。
  3. ^ カーネマン 2014.
  4. ^ Wason, P. C. (1968-08). “Reasoning about a rule”. The Quarterly Journal of Experimental Psychology 20 (3): 273–281. doi:10.1080/14640746808400161. ISSN 0033-555X. PMID 5683766. https://pubmed.ncbi.nlm.nih.gov/5683766. 
  5. ^ a b Pariser, Eli (May 2, 2011), Ted Talk: Beware Online "Filter Bubbles", https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles July 7, 2019閲覧。 
  6. ^ Self, Will (November 28, 2016), Forget fake news on Facebook ? the real filter bubble is you, https://www.newstatesman.com/science-tech/social-media/2016/11/forget-fake-news-facebook-real-filter-bubble-you July 7, 2019閲覧。 
  7. ^ Pariser, Eli (May 7, 2015), Did Facebook's big study kill my filter bubble thesis?, https://www.wired.com/2015/05/did-facebooks-big-study-kill-my-filter-bubble-thesis/ July 7, 2019閲覧。 
  8. ^ a b Zweig, Jason (November 19, 2009), “How to ignore the yes-man in your head”, Wall Street Journal (Dow Jones & Company), https://www.wsj.com/articles/SB10001424052748703811604574533680037778184 July 7, 2019閲覧。 
  9. ^ Pompian, Michael M. (2006), Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, pp. 187?90, ISBN 978-0-471-74517-4, OCLC 61864118 
  10. ^ Hilton, Denis J. (2001), “The psychology of financial decision-making: Applications to trading, dealing, and investment analysis”, Journal of Behavioral Finance 2 (1): 37?39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579 
  11. ^ Krueger, David; Mann, John David (2009), The Secret Language of Money: How to Make Smarter Financial Decisions and Live a Richer Life, McGraw Hill Professional, pp. 112?13, ISBN 978-0-07-162339-1, OCLC 277205993 
  12. ^ a b c d e Nickerson, Raymond S. (June 1998), “Confirmation bias: A ubiquitous phenomenon in many guises”, Review of General Psychology 2 (2): 175–220, doi:10.1037/1089-2680.2.2.175 
  13. ^ Goldacre, Ben (2008), Bad Science, London: Fourth Estate, ISBN 978-0-00-724019-7, OCLC 259713114 
  14. ^ Singh, Simon; Ernst, Edzard (2008), Trick or Treatment?: Alternative Medicine on Trial, London: Bantam, pp. 287–88, ISBN 978-0-593-06129-9 
  15. ^ Atwood, Kimball (2004), “Naturopathy, Pseudoscience, and Medicine: Myths and Fallacies vs Truth”, Medscape General Medicine 6 (1): 33 
  16. ^ Pang, Dominic; Bleetman, Anthony; Bleetman, David; Wynne, Max (2 June 2017), “The foreign body that never was: the effects of confirmation bias”, British Journal of Hospital Medicine 78 (6): 350–51, doi:10.12968/hmed.2017.78.6.350, PMID 28614014 
  17. ^ Neenan, Michael; Dryden, Windy (2004), Cognitive therapy: 100 key points and techniques, Psychology Press, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621 
  18. ^ Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Cognitive therapy for depression & anxiety: a practitioner's guide (2 ed.), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443 
  19. ^ a b Baron, Jonathan (2000), Thinking and deciding (3rd ed.), New York: Cambridge University Press, ISBN 978-0-521-65030-4, OCLC 316403966 
  20. ^ Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, pp. 172–73, 176, ISBN 978-0-19-852888-3, OCLC 602015097 
  21. ^ 末期患者が食い物に……超高額「がん免疫療法」戦慄の実態”. 岩澤倫彦 - 文芸春秋デジタル. 2022年12月18日閲覧。
  22. ^ Myers, D.G.; Lamm, H. (1976), “The group polarization phenomenon”, Psychological Bulletin 83 (4): 602–27, doi:10.1037/0033-2909.83.4.602  via Nickerson 1998, pp. 193–94
  23. ^ Halpern, Diane F. (1987), Critical thinking across the curriculum: a brief edition of thought and knowledge, Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6, OCLC 37180929 
  24. ^ Roach, Kent (2010), “Wrongful Convictions: Adversarial and Inquisitorial Themes”, North Carolina Journal of International Law and Commercial Regulation 35, SSRN 1619124, "Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias." 
  25. ^ a b Sutherland, Stuart (2007), Irrationality (2nd ed.), London: Pinter and Martin, pp. 95–103, ISBN 978-1-905177-07-3, OCLC 72151566 
  26. ^ Kida, Thomas E. (2006), Don't believe everything you think: the 6 basic mistakes we make in thinking, Amherst, NY: Prometheus Books, ISBN 978-1-59102-408-8, OCLC 63297791 
  27. ^ Tetlock, Philip E. (2005), Expert Political Judgment: How Good Is It? How Can We Know?, Princeton, NJ: Princeton University Press, pp. 125–28, ISBN 978-0-691-12302-8, OCLC 56825108 
  28. ^ Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010), “Biased evaluation of abstracts depending on topic and conclusion: Further evidence of a confirmation bias within scientific psychology”, Current Psychology 29 (3): 188–209, doi:10.1007/s12144-010-9087-5 
  29. ^ a b Koehler, Jonathan J. (1993), “The influence of prior beliefs on scientific judgments of evidence quality”, Organizational Behavior and Human Decision Processes 56: 28–55, doi:10.1006/obhd.1993.1044 
  30. ^ a b c Mahoney, Michael J. (1977), “Publication prejudices: An experimental study of confirmatory bias in the peer review system”, Cognitive Therapy and Research 1 (2): 161–75, doi:10.1007/BF01173636 
  31. ^ Proctor, Robert W.; Capaldi, E. John (2006), Why science matters: understanding the methods of psychological research, Wiley-Blackwell, p. 68, ISBN 978-1-4051-3049-3, OCLC 318365881 
  32. ^ Sternberg, Robert J. (2007), Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., eds., Critical Thinking in Psychology, Cambridge University Press, p. 292 ., ISBN 978-0-521-60834-3, OCLC 69423179 
  33. ^ a b Shadish, William R. (2007), “Critical Thinking in Quasi-Experimentation”, in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F., Critical Thinking in Psychology, Cambridge University Press, p. 49, ISBN 978-0-521-60834-3 
  34. ^ Jüni, P.; Altman, D.G.; Egger, M. (2001), “Systematic reviews in health care: Assessing the quality of controlled clinical trials”, BMJ (Clinical Research Ed.) 323 (7303): 42–46, doi:10.1136/bmj.323.7303.42, PMC 1120670, PMID 11440947, http://www.pubmedcentral.nih.gov/articlerender.fcgi?tool=pmcentrez&artid=1120670 
  35. ^ Shermer, Michael (July 2006), “The Political Brain”, Scientific American 295 (1): 36, Bibcode2006SciAm.295a..36S, doi:10.1038/scientificamerican0706-36, ISSN 0036-8733, PMID 16830675, http://www.scientificamerican.com/article.cfm?id=the-political-brain 2019年7月15日閲覧。 
  36. ^ Emerson, G.B.; Warme, W.J.; Wolf, F.M.; Heckman, J.D.; Brand, R.A; Leopold, S.S. (2010), “Testing for the presence of positive-outcome bias in peer review: A randomized controlled trial”, Archives of Internal Medicine 170 (21): 1934–39, doi:10.1001/archinternmed.2010.406, PMID 21098355 
  37. ^ Steven James Bartlett, "The Psychology of Abuse in Publishing: Peer Review and Editorial Bias," Chap. 7, pp. 147-177, in Steven James Bartlett, Normality Does Not Equal Mental Health: The Need to Look Elsewhere for Standards of Good Psychological Health. Santa Barbara, CA: Praeger, 2011.
  38. ^ Horrobin, David F. (1990), “The philosophical basis of peer review and the suppression of innovation”, Journal of the American Medical Association 263 (10): 1438–41, doi:10.1001/jama.263.10.1438, PMID 2304222 
  39. ^ a b Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), “Agreeable Fancy or Disagreeable Truth? Reconciling Self-Enhancement and Self-Verification”, Journal of Personality and Social Psychology 57 (5): 782–91, doi:10.1037/0022-3514.57.5.782, ISSN 0022-3514, PMID 2810025 
  40. ^ a b Swann, William B.; Read, Stephen J. (1981), “Self-Verification Processes: How We Sustain Our Self-Conceptions”, Journal of Experimental Social Psychology 17 (4): 351–72, doi:10.1016/0022-1031(81)90043-3, ISSN 0022-1031 
  41. ^ Story, Amber L. (1998), “Self-Esteem and Memory for Favorable and Unfavorable Personality Feedback”, Personality and Social Psychology Bulletin 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433 
  42. ^ White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), “Confirmatory bias in evaluating personality test information: Am I really that kind of person?”, Journal of Counseling Psychology 40 (1): 120–26, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167 
  43. ^ Swann, William B.; Read, Stephen J. (1981), “Acquiring Self-Knowledge: The Search for Feedback That Fits”, Journal of Personality and Social Psychology 41 (6): 1119–28, doi:10.1037/0022-3514.41.6.1119, ISSN 0022-3514 
  44. ^ Shrauger, J. Sidney; Lund, Adrian K. (1975), “Self-evaluation and reactions to evaluations from others”, Journal of Personality 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574.x, PMID 1142062 
  45. ^ a b Smith, Jonathan C. (2009), Pseudoscience and Extraordinary Claims of the Paranormal: A Critical Thinker's Toolkit, John Wiley and Sons, pp. 149–51, ISBN 978-1-4051-8122-8, OCLC 319499491 
  46. ^ Randi, James (1991), James Randi: psychic investigator, Boxtree, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284 
  47. ^ Agarwal, Dr Pragya. “Here Is How Bias Can Affect Recruitment In Your Organisation” (英語). Forbes. 2019年8月19日閲覧。

参考文献

[編集]

関連項目

[編集]

外部リンク

[編集]