ディープフェイク

出典: フリー百科事典『ウィキペディア(Wikipedia)』

ディープフェイク: deepfake)は、「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で[1]人工知能に基づく画像・映像合成技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像映像を、ある意図に沿った別の画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成する[2]。この意図的な映像の結合により、実際には起こっていない出来事に関する偽の映像が生み出されることとなる。

コラージュモンタージュ光学合成などを用いた、偽物(フェイクコンテント)は旧来より存在していたが、ディープフェイクはAIが関わることで、より現実との判別が困難になっている。

分類[編集]

ディープフェイクを使った偽動画として以下のものがある。

ポルノ[編集]

有名人の顔とポルノビデオを合成することで、実際にはしていない性行為をしているように見せかける偽ポルノ動画が作成されることがある。

政治[編集]

有名な政治家を、ビデオポータルチャットルームで、事実と異なるかたちで伝えるために使用されている。これは選挙運動で対立候補を陥れるネガティブ・キャンペーン政権政党への批判、戦時下における扇動などの工作にも使われる。

例えば、アルゼンチン大統領のマウリシオ・マクリの顔はアドルフ・ヒトラーの顔に、そしてアンゲラ・メルケルの顔はドナルド・トランプの顔に置き換えられた[3][4]。トランプが中国を訪問していた2017年11月に中国企業のiFlytek英語版は流暢な中国語を話して自社とAIを褒めたたえるトランプのディープフェイクを披露して波紋を呼んだ[5][6]

2018年4月、ジョーダン・ピールとJonah Peretti(en:Jonah Peretti)は、ディープフェイクの危険性に関する公共広告として、バラク・オバマを使ったディープフェイクを作成した[7]。2019年1月、KCPQは、オーバルオフィス(大統領執務室)におけるトランプの演説のディープフェイクを放映し、彼の外観と肌の色をあざけった[8]

2022年から始まったロシアのウクライナ侵攻では、当初からディープフェイクとみられる複数の映像が拡散されている[9] [10] [11] [12]

2023年、AI技術を駆使しニュース番組の画面に見せかけた上で当時の日本の内閣総理大臣岸田文雄が卑猥な言葉を発してるように見せたディープフェイク動画がSNSで拡散された。[13][14]また、動画は日テレニュース24の番組ロゴを無断使用していたため、日本テレビは「放送、番組ロゴをこのようなフェイク動画に悪用されたことは、到底許すことはできません。フェイク動画について今後も必要に応じて然るべき対応をして参ります」とコメントし動画の一部が自主規制を施した上、地上波で放映された。[14]

このように政治的な虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る[15] [16]

アナウンサー[編集]

中国では国営メディアの新華社がディープフェイクの技術を用いて実在のアナウンサーから合成した世界初の人工知能ニュースキャスターが開発されており[17]、政府の重要な会議の報道でも使用された[18]。この技術はロシアアラブ首長国連邦の国営メディアでも採用されている[19]

風刺[編集]

ハリウッドの名作映画の俳優を別人に入れ替える際にディープフェイクを用いることで、笑いを取るものがある[20]。コントローラーシフトフェイスというYoutuberは映画「ホーム・アローン」の主演であるマコーレ・カルキンシルバー・スタローンに入れ替えた動画を作成したり、ダープフェイクスというYoutuberが映画「サウンド・オブ・ミュージック」から「ファイト・クラブ」まで出演者の顔をニコラス・ケイジの顔に替えた映画を集めた「ニコラス・ケイジ・メガ・ミックス」を作成した[20]

歴史[編集]

ディープフェイクは、2017年12月に、雑誌Viceen:Vice (magazine))の技術と科学の欄で初めて報告され、他のメディアでも広く報道された[21] [22]

イギリスでは、ディープフェイクの製作者を嫌がらせ起訴できるが、ディープフェイクを特定の犯罪に指定することが求められている[23]。米国では、なりすましサイバーストーカー、リベンジポルノのようなさまざまなものが告発される、さらに包括的な法令にしていこうとする動きもある[24]

アメリカ合衆国の一部の州やオーストラリア等の一部の国ではフェイクポルノの温床となっているディープフェイクの製作を規制する法律を設けているところがある[25]。しかし、どこまでを規制の対象とするかは表現の自由の観点から議論となっている[25]

サイバーセキュリティ会社「DeepTrace」の2019年10月の調査によると、過去7か月で1万4,678件のディープフェイク動画が確認され、1年で倍増しており、その96 %がポルノ動画だった[26]

声を失った人など向けに開発されてきたディープフェイク音声英語版(ボイス・クローニング)であるが、詐欺などに悪用されている[27]。セキュリティソフトメーカーのマカフィーが2023年5月15日に発表した調査では、調査対象の7,000 人のうち4人に1人の割合で自分もしくは知人が被害に遭遇した経験があるとし、被害者の77 %が騙されて金銭を支払ったと回答した[28][29]

ソフトウェア[編集]

2018年1月、FakeAppというデスクトップアプリケーションが発表された。このアプリケーションでは、ユーザーが顔を入替えた動画を簡単に作成および共有できる。このアプリケーションは、フェイクビデオを生成するために、人工ニューラルネットワークグラフィックプロセッサのパワー、そして3〜4ギガバイトストレージスペースが必要である。詳細な情報については、プログラムは、ビデオシークエンスおよび画像に基づくディープラーニングアルゴリズムを使用して、どの画像アスペクトを交換しなければならないかを学習するため、挿入されるべき人物からの多くの視覚材料を必要とする。

そのソフトウェアは、グーグル人工知能-フレームワークであるTensorFlowを使用する、それは、とりわけコンピュータビジョンのプログラムであるDeepDreamen:DeepDream)のためにすでに使用されていた。有名人はそのような偽のセックスビデオの主な標的となっているが、一般の人々も影響を受けている[30] [31] [32]。2018年8月、カリフォルニア大学バークレー校の研究者は、人工知能を使って子供をプロのダンサーに置き換えることができるフェイクダンスアプリケーションを紹介する論文を発表した[33][34]

2019年8月、中国で1枚の顔写真でディープフェイクを作成できるZAOというアプリケーションが発表されて同年9月にApp Storeの人気ランキングで1位になるもユーザーの同意なしにデータを使用される可能性があるプライバシーポリシーが物議を醸し[35][36]、アメリカでは選挙介入やフェイクニュースに利用される可能性を懸念する声があがった[37]

批評[編集]

悪用[編集]

スイスに本社を置く新聞社であるAargauer Zeitung(en:Aargauer Zeitung)は、人工知能を使った画像やビデオの操作は、危険な大量のメディアがあふれることになる可能性があると述べている。しかし、画像やビデオの改ざん自体は、動画編集ソフトウェア画像編集ソフトウェアの登場よりもずっと古いものであり、このたびのディープフェイクの場合、新しい側面はそのリアリズムにある[3]

標的を絞ったデマやリベンジポルノにディープフェイクを使用することも可能である[38] [39]

信頼性と信憑性への影響[編集]

ディープフェイクのもう1つの効果は、公開された事物の真偽が簡単には判別できなくなることである。人工知能の研究者であるAlex Champandardは、この技術によって今日のものがどれだけ速く改変され得るか、そして問題は技術的なものではなく、情報とジャーナリズムの信頼によって解決されるものであるということを、すべての人が知っておくべきであると述べた。最重要な落とし穴は、描写されているメディアが真実に対応しているかどうかを、もはや判断できなくなる時代に人類が陥る可能性があることである[3]

インターネットの反応[編集]

Twitter(現・X)やGfycatなどのいくつかのウェブサイトでは、ディープフェイクのコンテンツを削除し、その発行元をブロックすると発表している。以前、チャットプラットフォームのDiscordは、有名人のフェイクポルノビデオのチャットチャンネルをブロックした。ポルノグラフィのウェブサイトの Pornhubもそのようなコンテンツをブロックする予定であるが、その禁止を強制していないと報告されている[40] [41]。 Redditでは、2018年2月7日に「不本意のポルノ」のポリシー違反により、subreddit(Redditのサブフォーラム)が一時停止されるまで、初期の状態が削除されないまま残っていた[22] [42] [43]。2018年9月、グーグルは、誰もが自分の本物あるいは偽物ヌードのブロックを要求でき、その禁止リストに「不本意の合成ポルノ画像」を追加した[24]

出典[編集]

  1. ^ Brandon, John (2018年2月16日). “Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise” (英語). Fox News. http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html 2018年2月20日閲覧。 
  2. ^ Schwartz, Oscar (2018年11月12日). “You thought fake news was bad? Deep fakes are where truth goes to die” (英語). The Guardian. https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth 2018年11月14日閲覧。 
  3. ^ a b c Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos”. az Aargauer Zeitung (2018年2月3日). 2019年1月26日閲覧。
  4. ^ Patrick Gensing (2018年2月22日). “Deepfakes: Auf dem Weg in eine alternative Realität?”. 2019年1月26日閲覧。
  5. ^ Thatsmags.com (2017年11月10日). “Here's a Creepy Video of Trump Speaking Chinese via AI”. 2019年9月3日閲覧。
  6. ^ ニューヨーク・タイムズ (2017年12月3日). “China’s A.I. Advances Help Its Tech Industry, and State Security”. 2019年9月3日閲覧。
  7. ^ Romano (2018年4月18日). “Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news”. Vox. 2018年9月10日閲覧。
  8. ^ Swenson (2019年1月11日). “A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired.” (英語). The Washington Post. 2019年1月11日閲覧。
  9. ^ 投降呼びかけるゼレンスキー氏の偽動画 米メタが削除”. 日本経済新聞 (2022年3月17日). 2023年12月7日閲覧。
  10. ^ 【解説動画】ウクライナ情勢 拡散する「ディープフェイク」”. NHK (2022年3月18日). 2023年12月7日閲覧。
  11. ^ ウクライナ大統領の偽動画は、ディープフェイクが戦争の“武器”となる世界を予見している”. WIRED (2022年3月19日). 2023年12月7日閲覧。
  12. ^ ウクライナ軍トップの偽動画がネット上で拡散…「ゼレンスキーは我が国の敵」とディープフェイク”. 読売新聞 (2023年11月9日). 2023年12月7日閲覧。
  13. ^ みんなで語る未解決事件(旧名) on Twitter: "やったぜ。 投稿者:変態糞総理 https://t.co/zxMnM5vVGT" / Twitter”. web.archive.org (2023年7月12日). 2023年11月16日閲覧。
  14. ^ a b 日本テレビ. ““岸田首相の声”のフェイク動画拡散…ニュース画面に見せかけ|日テレNEWS NNN”. 日テレNEWS NNN. 2023年11月16日閲覧。
  15. ^ Experts fear face swapping tech could start an international showdown” (英語). The Outline. 2018年2月28日閲覧。
  16. ^ Roose, Kevin (2018年3月4日). “Here Come the Fake Videos, Too” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html 2018年3月24日閲覧。 
  17. ^ AFPBB (2019年3月6日). “世界初のAIニュースキャスターが中国で誕生、あまりにもリアルで衝撃的な映像が公開中”. 2019年6月24日閲覧。
  18. ^ AFPBB (2019年3月6日). “動画:AIアナ「新小萌」 政協第13期全国委第2回会議報道でデビュー”. 2019年6月24日閲覧。
  19. ^ Asia One (2019年6月14日). “Demand for AI virtual news anchors set to increase”. 2019年6月24日閲覧。
  20. ^ a b ニーナ・シック, ナショナルジオグラフィック & 片山美佳子 2021, p. 42.
  21. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked, Motherboard, (2017-12-11), https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn 
  22. ^ a b Markus Böhm (2018-02-07), "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor, Spiegel Online, http://www.spiegel.de/netzwelt/web/deepfakes-online-plattformen-wollen-fake-promi-pornos-loeschen-a-1192170.html 
  23. ^
  24. ^ a b Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’”. The Washington Post (Harrell). 2019年1月1日閲覧。
  25. ^ a b NHKスペシャル取材班 2020, p. 53.
  26. ^ Hatachi, Kota. “日本人アイドルも被害に。96%がポルノ動画の「ディープフェイク」政治的な悪用も”. BuzzFeed. 2020年1月15日閲覧。
  27. ^ Brown, Dalvin (2021年8月22日). “AI gave Val Kilmer his voice back. But critics worry the technology could be misused.” (英語). Washington Post. 2023年5月19日閲覧。
  28. ^ Bunn, Amy (2023年5月15日). “Artificial Imposters—Cybercriminals Turn to AI Voice Cloning for a New Breed of Scam” (英語). McAfee Blog. 2023年5月19日閲覧。
  29. ^ AI悪用の音声詐欺が世界で急増、被害者の8割は金銭被害も”. ITmedia ビジネスオンライン. 2023年5月19日閲覧。
  30. ^ Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de, https://www.berliner-kurier.de/ratgeber/digital/-fake-app--mit-diesem-programm-kann-jeder-im-porno-landen---ob-er-will-oder-nicht--29578018 
  31. ^ Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070, http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap 
  32. ^ heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien, https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html 
  33. ^ Farquhar, Peter (2018年8月27日). “An AI program will soon be here to help your deepfake dancing – just don't call it deepfake” (英語). Business Insider Australia. https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8 2018年8月27日閲覧。 
  34. ^ “Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted”. The Verge. https://www.theverge.com/2018/8/26/17778792/deepfakes-video-dancing-ai-synthesis 2018年8月27日閲覧。 
  35. ^ “China’s Red-Hot Face-Swapping App Provokes Privacy Concern”. ブルームバーグ. (2019年9月2日). https://www.bloomberg.com/news/articles/2019-09-02/china-s-red-hot-face-swapping-app-provokes-privacy-concern 2019年9月3日閲覧。 
  36. ^ “顔写真1枚で簡単にディープフェイク映像を作成できる無料アプリ登場、中国で大人気に”. GIGAZINE. (2019年9月3日). https://gigazine.net/news/20190903-iphone-deepfake-app-zao/ 2019年9月3日閲覧。 
  37. ^ “中国で人気”偽動画作成アプリ” 米 選挙への影響懸念”. NHK. (2019年9月5日). https://www3.nhk.or.jp/news/html/20190905/k10012064311000.html 2019年9月5日閲覧。 
  38. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle, Die Zeit, (2018-01-26), ISSN 0044-2070, http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap/seite-2 
  39. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?, WILDE BEUGER SOLMECKE Rechtsanwälte, (2018-02-02), https://www.wbs-law.de/personlichkeitsrecht/deepfake-fakeapp-kann-personen-in-pornos-austauschen-welche-rechte-haben-geschaedigte-76428/ 
  40. ^ “Pornhub hasn't been actively enforcing its deepfake ban” (英語). Engadget. https://www.engadget.com/2018/04/18/pornhub-still-has-many-deepfake-videos/ 2018年4月21日閲覧。 
  41. ^ “Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them” (英語). BuzzFeed. https://www.buzzfeed.com/charliewarzel/pornhub-banned-deepfake-celebrity-sex-videos-but-the-site 2018年4月21日閲覧。 
  42. ^ barbara.wimmer, Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos, https://futurezone.at/digital-life/deepfakes-reddit-loescht-forum-fuer-kuenstlich-generierte-fake-pornos 
  43. ^ Reddit verbannt Deepfake-Pornos” (2018年2月8日). 2019年1月26日閲覧。

参考文献[編集]

  • ニーナ・シック、ナショナルジオグラフィック、片山美佳子『ディープフェイク ニセ情報の拡散者たち』日経ナショナル ジオグラフィック、2021年。ISBN 9784863135130 
  • NHKスペシャル取材班『やばいデジタル “現実”が飲み込まれる日』講談社現代新書、2020年。ISBN 9784065219546 

関連項目[編集]