フィルターバブル

出典: フリー百科事典『ウィキペディア(Wikipedia)』
移動先: 案内検索

フィルターバブル (filter bubble) とは、インターネット検索サイトのアルゴリズムが、ユーザーの情報(所在地、過去のクリック履歴、検索履歴など(ウェブビーコン, en:Website_visitor_tracking)に基づいてユーザーが見たい情報を選択的に推定するような検索結果を出すことが原因で、ユーザーがその人の観点に合わない情報から隔離され、実質的に彼ら自身の文化的、思想的な皮膜(バブル)の中に孤立するようになっていくこと。

主な例は、グーグル・パーソナライズド・サーチ、およびFacebookのパーソナライズド・ニュース・ストリームである。

この語はインターネット活動家であるイーライ・パリサーが同名の題の著書の中で作った新語である。パリサーによると、ユーザーは次第に対立する観点に露出しなくなり、自分自身の情報皮膜の中で知的孤立に陥る。

パリサーによると、フィルターバブルの効果は、市民の対話に対してネガティブな影響がある可能性があるというが、影響はほとんどない、あるいは解消可能であるとする異なる見解もある(後述)。

概念[編集]

パリサーはフィルターバブルの概念を、「(検索エンジンの)アルゴリズムによりもたらされる、情報の個人的生態系」と定義している[1]。同じ現象を表すのに、「イデオロギー的額縁 (ideological frame)」[2]、あるいは「インターネットで検索するときにあなたを包んでいる比喩的な球体」[3] といった他の表現が使われたこともあった。

インターネット利用者が「リンクを踏む、フレンドを閲覧する、動画を再生キューに入れる、ニュースを読む」などして特定のトピックスに興味を示すと、過去の検索履歴は蓄積される[3]。そこでインターネット事業者はそうした情報を利用してそのユーザー向けの広告をターゲットしたり、検索結果がより目立つようにしたりする[3]

パリサーの憂慮は、「ホテル・カリフォルニア効果」として2010年にティム・バーナーズ=リーがガーディアン紙で示した憂慮にやや似ている。これは、インターネットのソーシャル・ネットワークのサイトが(インターネット利用者のシェアを拡大する目論見で)他の競合するサイトを遮断しているので、特定のインターネット・サイトに「入れば入るほどにその情報から脱出できなくなる」ことに関連して述べたものだった。こうした運営はワールドワイドウェブをばらばらに分断するリスクを孕む「コンテンツの閉じたサイロ」になるという[4]

パリサーは著書『フィルターバブル』で、フィルター付き検索の潜在的欠点は「我々を新しいアイデア、話題、重要な情報から締め出すことになる」[5] 「我々の狭い私欲が世界の全てであるという印象を生み出す」[2]と警告する。パリサーの見方では、これは個人と社会の双方にとって潜在的に有害だとする。彼はグーグルとフェイスブックを「ユーザーにお菓子ばかり与えて野菜を少ししか与えない」と批判した[6]。 パリサーによれば、フィルターバブルが「市民的対話をひそかに破壊」して人々を「プロパガンダと情報操作」に対してより無力になるとして、フィルターバブルの有害な効果は社会全体に害をなすとする[2]

フィルターバブルは、スプリンターネットまたはサイバーバルカン化[7]と呼ばれてきた現象を悪化させるとして描写されている。サイバーバルカン化は、インターネットが、自身のオンラインコミュニティーに隔離され異なる観点に触れなくなったような、似たような思想の人からなるサブグループに分裂してしまうことを言う。サイバーバルカン化という単語は1996年に生まれた造語である[8][9][10]

反応[編集]

特定個人に特化したフィルタリングがどの程度行われているか、またそれが有益なのか有害なのかについて、対立する報告がある。

アナリストのジェイコブ・ヴァイスバーグはスレート誌の記事で科学的ではないが実験を行った。異なるイデオロギー的背景をもった5人が同じ検索をした結果、5人の検索結果は、4件の異なる検索をしてもほぼ同一だった。このことから、万人が“俺様新聞(en:Daily Me)”に畜養されているというのは言い過ぎだとしている[2]

特定個人に特化したリコメンドを分析したウォートン・スクールの科学研究では、オンライン音楽の好みに関しては、これらのフィルターは実際には断片化ではなくむしろ集団を作るほうに作用していることが分かった。消費者はフィルターを使うことで好みを制限するのではなく、拡張していた[11]

文芸評論家ポール・ブティンは異なる検索履歴をもつ人たちで似たような実験を行ったところ、ほとんど同じ検索結果というヴァイスバーグと似たような結果が得られた[12]

ハーバード大学のジョナサン・ジットレイン 英語版法学教授は、個人フィルターがどの程度グーグルの検索結果を歪めているかを議論し、「検索のパーソナリゼーションの影響は軽微だった」と述べている[2]

さらに、グーグルのパーソナリゼーション機能は、ウェブの履歴を消去するなどの手法でユーザーが選べば停止させることができるという報告もある[13]。グーグルのスポークスパーソンは、ここで言うようなアルゴリズムはグーグル検索に「パーソナリゼーションを制限し多様化を促進するため」意図的に加えられていると示唆した[2]

対策[編集]

個人によるもの[編集]

利用者はそれのフィルターバブルを打ち破るよう行動できる。例えばそれはそれら自体を暴露するような情報が何かを評価するような意識的な効果を作り、そしてそれらが内容の広い範囲をもって興味を引くかどうかについて批判的に考えることによってである。[14]利用者の偏見を妨げる技術に頼るというよりもむしろ、彼らが自らメディアに対してどのようにアプローチするかのその心理状態を変えるべきである、ことをこの見解は主張する。利用者は未検証もしくは根拠の薄いニュース発信源を意識的に防ぐことができる。IABのマーケッティングのVPの、クリス・グルスコ(英:Chris Glushko)はフェイク・ニュースを見分けるためにSnopes.comのような事実検証サイト(英:fact-checking site)を使うことを勧める。[15]フィルターバブルを撃退するのにおいて技術は有益な役割を果たすこともできる。[16]

メディア会社によるもの[編集]

ソーシャル・メディアにおける情報のフィルタリングについて最近の関係する見地から、フィルターバブルの存在をフェイス・ブックは認めてそれらを取り除くのに向けて長足に進歩した。[17]2017年1月に、フェイスブックはそれのトレンディング・トピックス(英:Trending Topics)の、そこでの高度な出来事について話されたのを見出さない幾らかの利用者によって問題に答えるものにおけるリストからパーソナライゼーテョンを取り除いた。[18]共有された記事を読んだ利用者の後に関連するニュースの話を配信するであろう、2013年に実施されているリレーテッド・アーティクルズ(英:Related Articles)をフェイスブックの戦略は反転させる。現在、修繕された戦略がこのプロセスを裏返し、そして同じ話題での異なった視野からの記事を配信するだろう。フェイスブックはまた評判の良い発信源が示すであろう項目からのみによってプロセスを調べることを通して試みる。クライグリスト(英:Craighslist)の創業者とその他によって、フィエイスブックは「世界中のジャーナリズムの信頼を向上して、そして公衆の対話をもっと知らせるのを改善する」努力のために14000ドルを投資した。[17]このアイデアは人々が彼らの友人から共有された配信しか読んでいなくとも、少なくともそれらの配信は信頼できるであろうものである。

関連図書[編集]

関連する項目[編集]

出典[編集]

  1. ^ Parramore, Lynn (October 10, 2010). "The Filter Bubble" The Atlantic. Retrieved April 20, 2011.
  2. ^ a b c d e f Weisberg, Jacob (June 10, 2011). [http://www.slate.com/id/2296633/ "Bubble Trouble: Is Web personalization turning us into solipsistic twits?". Slate. Retrieved August 15, 2011.
  3. ^ a b c Lazar, Shira (June 1, 2011). > "Algorithms and the Filter Bubble Ruining Your Online Experience?" Huffington Post. Retrieved August 15, 2011.
  4. ^ Bosker, Bianca (November 22, 2010). "Tim Berners-Lee: Facebook Threatens Web, Beware". The Guardian. Retrieved August 22, 2012.
  5. ^ > "First Monday: What's on tap this month on TV and in movies and books: The Filter Bubble by Eli Pariser". USA Today. 2011. Retrieved April 20, 2011.
  6. ^ Bosker, Bianca (March 7, 2011). "Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns". Huffington Post. Retrieved April 20, 2011.
  7. ^ 原註:サイバーバルカン化(サイバー・バルカン化とハイフンを付けることもある)という語は、インターネットに関連する サイバー と、歴史的、宗教的および文化的に細かく分裂していたヨーロッパ地域を指すバルカン化のかばん語である。この語はMITの研究者だったヴァン・アルスタインとブリニョルフソンの論文で登場した新語である。
  8. ^ Cyberbalkanization”. 2016年4月25日閲覧。
  9. ^ Van Alstyne, Marshall; Brynjolfsson, Erik (November 1996). “Could the Internet Balkanize Science?”. Science 274 (5292). doi:10.1126/science.274.5292.1479. http://www.sciencemag.org/content/274/5292/1479.summary. 
  10. ^ Systems hope to tell you what you'd like: `Preference engines' guide users through the flood of content”. Chicago Tribune (2005年9月24日). 2015年12月4日閲覧。 “...if recommenders were perfect, I can have the option of talking to only people who are just like me....Cyber-balkanization, as Brynjolfsson coined the scenario, is not an inevitable effect of recommendation tools,,,,”
  11. ^ Hosanagar, Kartik; Fleder, Daniel; Lee, Dokyun; Buja, Andreas (December 2013). "Will the Global Village Fracture into Tribes: Recommender Systems and their Effects on Consumers".
  12. ^ Boutin, Paul (May 20, 2011). "Your Results May Vary: Will the information superhighway turn into a cul-de-sac because of automated filters?" The Wall Street Journal. Retrieved August 15, 2011.
  13. ^ Ludwig, Amber. "Google Personalization on Your Search Results Plus How to Turn it Off" NGNG. Retrieved August 15, 2011.
  14. ^ Are we stuck in filter bubbles? Here are five potential paths out, http://www.niemanlab.org/2012/07/are-we-stuck-in-filter-bubles-here-are-five-potential-paths-out/ 
  15. ^ Glushko, Chiris. “Pop the Personalization Filter Babbles and Preserve Online Diversity”. 2017年5月22日閲覧。
  16. ^ Ritholtz, Barry. “Try Breaking Your Media Filter Bubble”. 2017年5月22日閲覧。
  17. ^ a b Vanian, Jonathan (2017年4月25日). “Facebook Tests Related Articles Feature to Fight Filter Bubbles”. 2017年9月24日閲覧。
  18. ^ Sydell, Laura (2017年1月25日). “Facebook Tweaks its 'Trending Topics' Algorithm-tobetter-reflect-real-news”. NPR. KQED Public Media 

外部リンク[編集]