フィルターバブル

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動先: 案内検索

フィルターバブル (filter bubble) とは、「インターネットの検索サイトが提供するアルゴリズムが、各ユーザーが見たくないような情報を遮断する機能」(フィルター)のせいで、まるで「泡」(バブル)の中に包まれたように、自分が見たい情報しか見えなくなること。

概要[編集]

「フィルターバブル」の用語を生み出した、インターネット活動家のイーライ・パリサー

インターネットの検索サイトは、各ユーザーを識別する仕組み(ウェブビーコン)を用いて、各ユーザーの所在地、過去のクリック履歴、検索履歴などと言った、各ユーザーのプライベートな情報を把握している(この仕組みをトラッキングと言う)。そして、各ユーザーのプライベートな情報を、それぞれの検索サイトのアルゴリズムに基づいて解析し、そのユーザーが見たいだろうと思われる情報を選択的に推定して、ユーザーが見たくないだろうと思われる情報を遮断している(この仕組みをフィルタリングと言う)。そして、各ユーザーごとに最適化された、各ユーザーが見たいだろうと思われる検索結果のみを返している(この仕組みをパーソナライズ、またはパーソナライゼーションと言う)。GoogleやFacebookなど、ほとんどのwebサイトでは標準で導入されており、同じ「インターネット」を見ているつもりでも、人々が実際に見ているのはこのように「フィルター」を介してパーソナライズされた世界である(これを無効化する「プライベートブラウジング」などと呼ばれる機能を持つブラウザもあるため、無効化することも一応できる)。

自分の欲しい検索結果が返って来るようなアルゴリズムを持つwebサイトほど、良いwebサイトだとユーザーに評価されるので、各サイトの検索アルゴリズムはますます進化したが、一方で、検索サイトのアルゴリズムがますます進化して、ますます自分の欲しい検索結果が返って来るようになると、最終的には、自分の見たい情報(実際は、検索サイトのアルゴリズムがそう判断した情報)以外をインターネットで見ることが出来なくなる。そして、自分の観点に合わない情報から隔離され、同じ意見を持つ人々同士で群れ集まるようになり、それぞれの集団ごとで文化的・思想的な皮膜(バブル)の中に孤立するようになっていく。この現象を「フィルターバブル」と言う。

この語はインターネット活動家であるイーライ・パリサーが2011年に出版した同名の題の著書『The Filter Bubble』(邦訳は『閉じこもるインターネット』のタイトルで2012年に刊行)の中で作った新語である。この本によると、ユーザーは次第に自分の考えと対立する観点の情報に触れることができなくなり、自分自身の情報皮膜の中で知的孤立に陥るという。

パリサーによると、フィルターバブルの効果は、人間どうしの対話に対してネガティブな影響がある可能性があるというが、影響はほとんどない、あるいは解消可能であるとする説もある(後述)。

まるで「エコー・チェンバー」(自分で発した音が、あらゆる方向から反射して自分の方に返ってくる、音響の実験室。日本語で言うと「残響室」)にいるかのように、あらゆる方向から自分と同じ意見が返ってくるような閉じた空間にいた結果、様々な人の意見を聞いて様々な考え方を知ることが出来るのではなく、単に自分の意見が増幅・強化されるだけとなる「エコーチェンバー現象」などとも関係が深い用語である。

イーライ・パリサー曰く、「あなたに『いいね!』する人の書き込みだけを見ている間に、あなたが大嫌いな人が大統領(注:トランプ大統領のこと)になっていて驚くわけですよ」[1]

コンセプト[編集]

パリサーはフィルターバブルの概念を、「(検索エンジンの)アルゴリズムによりもたらされる、情報の個人的生態系」と定義している[2]。同じ現象を表すのに、「イデオロギー的額縁 (ideological frame)」[3]、あるいは「インターネットで検索するときにあなたを包んでいる比喩的な球体」[4] といった他の表現が使われたこともあった。

インターネット利用者が「リンクを踏む、フレンドを閲覧する、動画を再生キューに入れる、ニュースを読む」などして特定のトピックスに興味を示すと、過去の検索履歴は蓄積される[4]。そこでインターネット事業者はそうした情報を利用してそのユーザー向けの広告をターゲットしたり、検索結果がより目立つようにしたりする[4]

パリサーの憂慮は、「ホテル・カリフォルニア効果」として2010年にティム・バーナーズ=リーがガーディアン紙で示した憂慮にやや似ている。これは、インターネットのソーシャル・ネットワークのサイトが(インターネット利用者のシェアを拡大する目論見で)他の競合するサイトを遮断しているので、特定のインターネット・サイトに「入れば入るほどにその情報から脱出できなくなる」ことに関連して述べたものだった。こうした運営はワールドワイドウェブをばらばらに分断するリスクを孕む「コンテンツの閉じたサイロ」になるという[5]

パリサーは著書『フィルターバブル』で、フィルター付き検索の潜在的欠点は「我々を新しいアイデア、話題、重要な情報から締め出すことになる」[6] 「我々の狭い私欲が世界の全てであるという印象を生み出す」[3]と警告する。パリサーの見方では、これは個人と社会の双方にとって潜在的に有害だとする。彼はグーグルとフェイスブックを「ユーザーにお菓子ばかり与えて野菜を少ししか与えない」と批判した[7]。 パリサーによれば、フィルターバブルが「市民的対話をひそかに破壊」して人々を「プロパガンダと情報操作」に対してより無力になるとして、フィルターバブルの有害な効果は社会全体に害をなすとする[3]

フィルターバブルは、スプリンターネットまたはサイバーバルカン化[8]と呼ばれてきた現象を悪化させるとして描写されている。サイバーバルカン化は、インターネットが、自身のオンラインコミュニティーに隔離され異なる観点に触れなくなったような、似たような思想の人からなるサブグループに分裂してしまうことを言う。サイバーバルカン化という単語は1996年に生まれた造語である[9][10][11]

反応[編集]

フィルタリングの効果は、ブラウザをプライベートモードで開き普段の状態と比較する事で確認できる。プライベートモードでは、ブラウザのキャッシュ、クッキー、履歴等を毎回消去するので、過去の検索履歴に影響されない状態でブラウズできる。

特定個人に特化したフィルタリングがどの程度行われているか、またそれが有益なのか有害なのかについて、対立する報告がある。

アナリストのジェイコブ・ヴァイスバーグはスレート誌の記事で科学的ではないが実験を行った。異なるイデオロギー的背景をもった5人が同じ検索をした結果、5人の検索結果は、4件の異なる検索をしてもほぼ同一だった。このことから、万人が“俺様新聞(en:Daily Me)”に畜養されているというのは言い過ぎだとしている[3]

特定個人に特化したリコメンドを分析したウォートン・スクールの科学研究では、オンライン音楽の好みに関しては、これらのフィルターは実際には断片化ではなくむしろ集団を作るほうに作用していることが分かった。消費者はフィルターを使うことで好みを制限するのではなく、拡張していた[12]

文芸評論家ポール・ブティンは異なる検索履歴をもつ人たちで似たような実験を行ったところ、ほとんど同じ検索結果というヴァイスバーグと似たような結果が得られた[13]

ハーバード大学のジョナサン・ジットレイン 英語版法学教授は、個人フィルターがどの程度グーグルの検索結果を歪めているかを議論し、「検索のパーソナリゼーションの影響は軽微だった」と述べている[3]

さらに、グーグルのパーソナリゼーション機能は、ウェブの履歴を消去するなどの手法でユーザーが選べば停止させることができるという報告もある[14]。グーグルのスポークスパーソンは、ここで言うようなアルゴリズムはグーグル検索に「パーソナリゼーションを制限し多様化を促進するため」意図的に加えられていると示唆した[3]

対策[編集]

ブラウザのプライベートモードを使う[編集]

ブラウザには、クッキー、履歴、キャッシュ等を毎回消去するプライベートモードがある。これを使えば、過去の検索履歴に影響される事は無い。Windows の Internet Explorer や Edge では InPrivate ウィンドウ、iOS の Safari では プライベート ブラウズ モード、Android の Chrome では シークレット タブ、Google アプリではシークレット モードをオンにする、等が利用できる。

個人によるもの[編集]

利用者はそれのフィルターバブルを打ち破るよう行動できる。例えばそれはそれら自体を暴露するような情報が何かを評価するような意識的な効果を作り、そしてそれらが内容の広い範囲をもって興味を引くかどうかについて批判的に考えることによってである。[15]利用者の偏見を妨げる技術に頼るというよりもむしろ、彼らが自らメディアに対してどのようにアプローチするかのその心理状態を変えるべきである、ことをこの見解は主張する。利用者は未検証もしくは根拠の薄いニュース発信源を意識的に防ぐことができる。IABのマーケッティングのVPの、クリス・グルスコ(英:Chris Glushko)はフェイク・ニュースを見分けるためにSnopes.comのような事実検証サイト(英:fact-checking site)を使うことを勧める。[16]フィルターバブルを撃退するのにおいて技術は有益な役割を果たすこともできる。[17]

メディア会社によるもの[編集]

ソーシャル・メディアにおける情報のフィルタリングについて最近の関係する見地から、フィルターバブルの存在をフェイス・ブックは認めてそれらを取り除くのに向けて長足に進歩した。[18]2017年1月に、フェイスブックはそれのトレンディング・トピックス(英:Trending Topics)の、そこでの高度な出来事について話されたのを見出さない幾らかの利用者によって問題に答えるものにおけるリストからパーソナライゼーテョンを取り除いた。[19]共有された記事を読んだ利用者の後に関連するニュースの話を配信するであろう、2013年に実施されているリレーテッド・アーティクルズ(英:Related Articles)をフェイスブックの戦略は反転させる。現在、修繕された戦略がこのプロセスを裏返し、そして同じ話題での異なった視野からの記事を配信するだろう。フェイスブックはまた評判の良い発信源が示すであろう項目からのみによってプロセスを調べることを通して試みる。クライグリスト(英:Craighslist)の創業者とその他によって、フィエイスブックは「世界中のジャーナリズムの信頼を向上して、そして公衆の対話をもっと知らせるのを改善する」努力のために14000ドルを投資した。[18]このアイデアは人々が彼らの友人から共有された配信しか読んでいなくとも、少なくともそれらの配信は信頼できるであろうものである。

関連図書[編集]

関連する項目[編集]

出典[編集]

  1. ^ Eli Pariser: activist whose filter bubble warnings presaged Trump and Brexit | Media | The Guardian
  2. ^ Parramore, Lynn (October 10, 2010). "The Filter Bubble" The Atlantic. Retrieved April 20, 2011.
  3. ^ a b c d e f Weisberg, Jacob (June 10, 2011). "Bubble Trouble: Is Web personalization turning us into solipsistic twits?" Slate. Retrieved August 15, 2011.
  4. ^ a b c Lazar, Shira (June 1, 2011). > "Algorithms and the Filter Bubble Ruining Your Online Experience?" Huffington Post. Retrieved August 15, 2011.
  5. ^ Bosker, Bianca (November 22, 2010). "Tim Berners-Lee: Facebook Threatens Web, Beware". The Guardian. Retrieved August 22, 2012.
  6. ^ > "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Retrieved April 20, 2011.
  7. ^ Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Retrieved April 20, 2011.
  8. ^ 原註:サイバーバルカン化(サイバー・バルカン化とハイフンを付けることもある)という語は、インターネットに関連する サイバー と、歴史的、宗教的および文化的に細かく分裂していたヨーロッパ地域を指すバルカン化のかばん語である。この語はMITの研究者だったヴァン・アルスタインとブリニョルフソンの論文で登場した新語である。
  9. ^ Cyberbalkanization”. 2016年4月25日閲覧。
  10. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). “Could the Internet Balkanize Science?”. Science 274 (5292). doi:10.1126/science.274.5292.1479. http://www.sciencemag.org/content/274/5292/1479.summary. 
  11. ^ Systems hope to tell you what you'd like: `Preference engines' guide users through the flood of content”. Chicago Tribune (2005年9月24日). 2015年12月4日閲覧。 “...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools,,,,”
  12. ^ Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (December 2013). "Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers".
  13. ^ Boutin, Paul (May 20, 2011). "Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?" The Wall Street Journal. Retrieved August 15, 2011.
  14. ^ Ludwig, Amber. "Google Personalization on Your Search Results Plus How to Turn it Off" NGNG. Retrieved August 15, 2011.
  15. ^ Are we stuck in filter bubbles? Here are five potential paths out, http://www.niemanlab.org/2012/07/are-we-stuck-in-filter-bubles-here-are-five-potential-paths-out/ 
  16. ^ Glushko, Chiris. “Pop the Personalization Filter Babbles and Preserve Online Diversity”. Marketing Land. 2017年5月22日閲覧。
  17. ^ Ritholtz, Barry. “Try Breaking Your Media Filter Bubble”. Bloomberg. 2017年5月22日閲覧。
  18. ^ a b Vanian, Jonathan (2017年4月25日). “Facebook Tests Related Articles Feature to Fight Filter Bubbles”. フォーチュン. 2017年9月24日閲覧。
  19. ^ Sydell, Laura (2017年1月25日). “Facebook Tweaks its 'Trending Topics' Algorithm-tobetter-reflect-real-news”. NPR. KQED Public Media 

外部リンク[編集]