コンテンツにスキップ

生成的人工知能

出典: フリー百科事典『ウィキペディア(Wikipedia)』
A detailed oil painting of figures in a futuristic opera scene
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AI(せいせいエーアイ、: GenAI[5])は、文字などの入力(プロンプト)に対してテキスト画像、または他のメディアを応答として生成する人工知能システムの一種である[6][7]ジェネレーティブAIジェネラティブAIともよばれる。

生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[8][9]

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[10]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[11]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[12]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性がある[13][14]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[6][15][16]。しかし、生成AIを訓練する目的での著作物の無法図な利用や人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されており[17][18][19]欧州連合における人工知能法など法規制の議論も進んでいる[20][21]。また、効果的加速主義などのシリコンバレーの技術思想との関係も話題になっている[22]

歴史[編集]

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代後半、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[23]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[24]

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[25]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ[編集]

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[26]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[26]

課題[編集]

より簡便にメディアの生成を行うことのできる生成的人工知能に対して政府企業、個人が懸念を表明している。その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催されたG7広島サミットでは広島AIプロセスを採択し、その中で安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[35]

アントニオ・グテーレス国連事務総長は2023年7月の国連安全保障理事会の会見において、AIは「世界の発展を加速」し、莫大な富を齎す可能性があると述べた。一方で、使い方によっては「想像を絶する規模での死と破壊、広範囲に及ぶトラウマ、深刻な心理的ダメージを引き起こす可能性がある」と述べた[36]

2024年6月に開催された主要国首脳会議(G7)で、ローマ教皇フランシスコは人工知能が人類の未来に与える影響を考察するスピーチを行った。知識へのアクセス、科学研究の進歩、重労働からの開放などのメリットに言及する一方で、先進国と発展途上国の間、または社会階層間に重大な不正義をもたらす可能性を語った。生成AIについては「厳密には『生成的』ではない」「ビッグデータの中から情報を探し、要求に応じて、魅力的なスタイルで仕立てるものであり、新しい概念や分析を発展させるものではない」「時にはフェイクニュースを正当化しかねないという意味で、それは『生成的』というより、むしろ『強制的』である」として「もしわれわれが、人々から自分自身と自分の人生について決定する力を取り上げ、機械の選択に依存させるならば、人類に希望のない未来を負わせることになる」と述べた[37]

失業[編集]

2023年のSAG-AFTRAストライキ英語版において「生成AIの利用の制限」は要求の1つだった。[38]

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZAの開発者であるジョセフ・ワイゼンバウムらによって進められてきた[39]

生成的人工知能によるイラストレータや俳優、声優などのクリエイターの失業が懸念されている。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[40][41]。2023年7月には生成AIの開発が2023年のハリウッド労働争議英語版の一因となった。映画俳優組合の会長フラン・ドレッシャーは、2023年のSAG-AFTRAストライキ英語版中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[42]。 音声生成AIは、声優業界への潜在的な脅威とみなされている[43][44]

フェイク情報の作成[編集]

エリオット・ヒギンズ英語版がMidjourneyを用いて生成したドナルド・トランプが逮捕される様子を描いたディープフェイク画像(2023)

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成/捏造がより高精度に且つ容易になるため、詐欺世論操作プロパガンダ名誉毀損等に悪用される可能性がある。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ等の事例がある。

悪用事例以外にも、ニュース記事の生成や日本赤十字社による関東大震災の体験記の生成[45]などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題がある[46]

このため国内外でディープフェイク対策のための研究が進められている[47]

音声のディープフェイク[編集]

画像の場合と同じように有名人や公人の音声で物議を醸す発言をしている音声を生成する例があり、音声生成AIに対する倫理的懸念が生じている[48][49][50][51][52][53]。これに対して、一部の企業は安全対策とユーザーの身元確認を通じて潜在的な悪用の軽減に取り組む姿勢を見せている[54]

サイバー犯罪[編集]

ディープフェイクはフィッシング詐欺を含むさまざまな種類のサイバー犯罪に悪用されている[55]。さらに、テキスト生成AIはECサイト上で高評価の偽レビューを量産するために大規模に使用されている[56]。WormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[57]

グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー英語版は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[58]

2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリングフィッシング詐欺への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[59]

ハルシネーション (幻覚)、作話[編集]

人工知能の用語のハルシネーション(hallucination。幻覚)とは、AIの訓練に用いたどの学習データとも整合しない回答をAIが堂々としてしまうという問題である。人間の幻覚喩えて「幻覚」と呼ばれているが、作話(confabulation)という表現のほうを好む研究者もいる。

2023年、アメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例の「引用」を6件行っていた[60][61]

2023年11月、複数の俳優国政政党れいわ新選組」を応援している旨のメッセージを載せたまとめサイトが確認され、俳優の所属事務所、れいわ新選組が応援を否定する事態になった[62][63]。サイトの作成者は「該当記事はAIに書かせたものであり、その芸能人が実際にれいわ新選組を応援しているかどうか確認せずに掲載してしまった」と説明している[64][65]

人種的、ジェンダーバイアスの強化[編集]

生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師などが男性であり、秘書や料理人、看護師などが女性とする[66]、「CEOの写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[67]。入力プロンプトの変更[68]や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[69]

報道分野での誤用[編集]

韓国、中国、台湾、インド、クウェート、ギリシャのニュース放送局は、生成AIのナレーションでニュースを伝えており、人間のナレーターの失業や、放送局、コンテンツ制作者、ソーシャルメディアのインフルエンサーとの関係性において構築されていたニュースの信頼性に関する懸念を引き起こしている[70][71][72]。アルゴリズムで生成されたナレーションはISILによっても利用されている[73]

2023年4月、ドイツのタブロイド紙Die Aktuelleは、スキー事故で脳挫傷を負って、2013年以来公の場に姿を見せていなかった元レーシングドライバーのミハエル・シューマッハとの偽のインタビューを生成AIで作成して掲載した。この記事には2つの明示的な内容が含まれていた。それは表紙に「欺瞞的に本物」という一文が含まれていたこと、インタビューの最後にAI生成であることが明記されていた。論争を巻き起こした後、編集長は解雇された[74]

2023年、Googleは報道機関に対し、「時事問題の詳細」などの入力データに基づいて「ニュース記事を作成する」とされるツールを売り込んだと報じられた。この売り込みを受け報道機関側は、このツールを「正確で手の込んだニュースを作成するための努力を軽視している」と評した[75]

ワシントンポストは、ニュース記事を要約するLlama 3を基盤とするチャットボットであるMeta AIが、直接の出典なしに記事から文章をコピーし、オンラインニュースメディアのトラフィックを減少させる可能性があると指摘した[76]

法規制[編集]

アメリカではOpenAIAlphabetMetaを含む企業が2023年7月にホワイトハウスとの間でAI生成物に電子透かしを入れる自主協定を締結した[77]。 2023年10月、大統領令14110により国防生産法が適用され、すべての米国企業に対し、大規模AIモデルを訓練する際に連邦政府に報告することが義務付けられた[78]

欧州連合人工知能法には生成AIシステムの訓練に使用される著作権保護の対象となるデータを開示すること、およびAI生成物にラベル付けを義務付ける要件が含まれた[79][80]

中国では、政府のサイバースペース管理局が導入した生成AIサービス管理のための暫定措置により、生成AIが規制対象となっている。これには、生成された画像やビデオに透かしを入れるための要件、訓練データとラベルの品質に関する規制、個人データの収集に関する制限、生成AIが「社会主義の中核的価値観を遵守」しなければならないというガイドラインが含まれている[81][82]

著作権[編集]

訓練データの著作権[編集]

研究によれば生成AIは訓練データとほぼ同じコンテンツを出力することがある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[83]。 研究によれば生成AIは訓練データとほぼ同じコンテンツを出力することがある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[83]。
研究によれば生成AIは訓練データとほぼ同じコンテンツを出力することがある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[83]

生成的人工知能を訓練する際に使用するデータセットに含まれる著作物に関して、データ倫理上の課題と著作権法の解釈が議論されている。機械学習で訓練をされたAIサービスの普及に伴い、訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズマイクロソフトOpenAIへの訴訟、ユニバーサル・ミュージックAnthropicへの訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されており[84][85]フランスが生成AIの訓練で報道記事を無断利用したとしてGoogleに2億5000万ユーロ(約410億円)の罰金を課す事例も発生している[86]

ChatGPTMidjourneyなどの生成AIモデルは、著作権で保護された著作物を含む大規模な公開データセットをベースに訓練されている。AI開発者側は、フェアユース法理の下でこれらの訓練の合法性を主張しているが、著作権者側は権利侵害を主張している[87]。生成AIの支持側は、変容的な利用であり、著作物の複製を一般に公開するものではないと主張している[87]。しかし、生成AIの批判側からはMidjourneyなどの画像生成AIは、著作権で保護された画像の一部とほぼ同じ出力が得られ[88]、生成AIモデルは、元の訓練データと競合すると指摘している[89]

生成AIの「侵略」に対抗するためのセキュリティ手法も開発されている。シカゴ大学の研究者によるNightshadeという技術はポイズニングにより生成AIモデルを破壊する[90][91]

著作物を機械学習の訓練目的で利用することについて、国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウトにより著作物の利用が制限される[92][93]。アメリカでは著作物の利用がフェアユースによって広範に規定されている[93]。日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[94]。また、ベルヌ条約におけるスリーステップテスト等の国際条約との関係も議論されている[95]


日本[編集]

日本の著作権法30条4では、『思想又は感情の享受を目的としない場合』かつ『著作権者の利益を不当に害することとならない場合』には原則として著作権者の許諾なく著作物の利用を行うことが可能である[96]

日本政府の見解として文化庁は、生成AIの開発学習段階における情報解析は「享受」を目的としない行為としている。一方で、ファインチューニング等によって学習データ(データ群)に対して意図的に「作風などを越えた創作的表現の共通したもの」を生成することを目的とする場合は「享受」の目的が併存すると考えられるとしている。著作権者の利益を不当に害するかどうかは「著作権者の著作物の利用市場と衝突するか」・「将来における著作物の潜在的販路を阻害するか」という観点から「技術の進展」・「著作物の利用態様の変化」等の諸般の事情を総合的に考慮して検討することが必要であるとしている。有償提供されているデータベース著作物(著作権法12条の2創作性の認められる選択方法や体系化がなされているデータベース)を有償で利用することなく情報解析で利用する行為は明確に抵触しえるとしている[96]

また文化庁は、生成AIを用いたAI生成物の生成・利用の段階に関しては通常の著作物と同様に、既存著作物との依拠性、類似性によって著作権の侵害の有無を判断するとしている[96]

生成物の著作権[編集]

アメリカ合衆国著作権局はAI生成物に著作権を認めていない。漫画『Zarya of the Dawn』の著作権登録では生成AIによって生成された絵の部分に限定して登録を拒絶した[97]

AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

アメリカ[編集]

アメリカ合衆国著作権局は、人間の介入なしに人工知能によって作成された作品は、人間の著作者がいないため著作権を保護できないとの評定を下した[98]。米国著作権局は、この方針を改訂する必要があるかどうかを判断するために、意見の収集を進めている[99]

日本[編集]

AI生成物が著作物か該当するかどうかは著作権法第2条「思想又は感情を創作的に表現したもの」かつ「自然人若しくは法人の作製したもの」に当たるかどうかで判断される。文化庁はこれに関して、AIが自律的に生成したものでなく、人が思想又は感情を創作的に表現するための「道具」としてAIを使用した場合には著作物に該当し、AI利用者が著作者となると考えられるとしており、これらの判断は個々のAI生成物について、個別具体的な事情に応じて判断されるとしている[96]

脚注[編集]

  1. ^ 生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について”. utelecon. 2023年7月1日閲覧。
  2. ^ 生成AI(Generative AI)のビジネスへの影響|Deloitte AI Institute|Deloitte”. デロイト・メンバーファーム. 2023年7月1日閲覧。
  3. ^ Nature読者のChatGPT利用法 | Nature ダイジェスト | Nature Portfolio”. www.natureasia.com. 2023年7月1日閲覧。
  4. ^ 生成AIモデル:ビジネスにおけるリスクおよび潜在的なリターン - KPMGジャパン”. KPMG (2023年5月30日). 2023年7月1日閲覧。
  5. ^ TECHBLITZ編集部「生成AI(ジェネレーティブAI)の成長スタートアップ最新動向を調査【生成AIツールトレンドレポート】」『TECHBLITZ』イシン、2023年10月11日。2024年3月19日閲覧。
  6. ^ a b Anthropic Said to Be Closing In on $300 Million in New A.I. Funding”. en:The New York Times (2023年1月27日). 2023年3月14日閲覧。
  7. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (2023年3月10日). “A Cheat Sheet to AI Buzzwords and Their Meanings”. Bloomberg News. https://news.bloomberglaw.com/tech-and-telecom-law/a-cheat-sheet-to-ai-buzzwords-and-their-meanings-quicktake 2023年3月14日閲覧。 
  8. ^ Pasick, Adam (2023年3月27日). “Artificial Intelligence Glossary: Neural Networks and Other Terms Explained” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/article/ai-artificial-intelligence-glossary.html 2023年4月22日閲覧。 
  9. ^ Generative models”. OpenAI (2016年6月16日). 2023年5月20日閲覧。
  10. ^ Metz, Cade. "OpenAI Unveils GPT-4, Months After ChatGPT Stunned Silicon Valley." The New York Times, March 14, 2023, https://www.nytimes.com/2023/03/14/technology/openai-gpt4-chatgpt.html
  11. ^ Thoppilan, Romal; De Freitas, Daniel; Hall, Jamie; Shazeer, Noam; Kulshreshtha, Apoorv; Cheng, Heng-Tze; Jin, Alicia; Bos, Taylor; Baker, Leslie; Du, Yu; Li, YaGuang; Lee, Hongrae; Zheng, Huaixiu Steven; Ghafouri, Amin; Menegali, Marcelo; Huang, Yanping; Krikun, Maxim; Lepikhin, Dmitry; Qin, James; Chen, Dehao; Xu, Yuanzhong; Chen, Zhifeng; Roberts, Adam; Bosma, Maarten; Zhao, Vincent; Zhou, Yanqi; Chang, Chung-Ching; Krivokon, Igor; Rusch, Will; Pickett, Marc; Srinivasan, Pranesh; Man, Laichee; Meier-Hellstern, Kathleen; Ringel Morris, Meredith; Doshi, Tulsee; Delos Santos, Renelito; Duke, Toju; Soraker, Johnny; Zevenbergen, Ben; Prabhakaran, Vinodkumar; Diaz, Mark; Hutchinson, Ben; Olson, Kristen; Molina, Alejandra; Hoffman-John, Erin; Lee, Josh; Aroyo, Lora; Rajakumar, Ravi; Butryna, Alena; Lamm, Matthew; Kuzmina, Viktoriya; Fenton, Joe; Cohen; Aaron; Bernstein, Rachel; Kurzweil, Ray; Aguera-Arcas, Blaise; Cui, Claire; Croak, Marian; Chi, Ed; Le, Quoc (20 January 2022). "LaMDA: Language Models for Dialog Applications". arXiv:2201.08239 [cs.CL]。
  12. ^ Roose, Kevin (2022年10月21日). “A Coming-Out Party for Generative A.I., Silicon Valley's New Craze”. The New York Times. 2023年3月14日閲覧。
  13. ^ Don't fear an AI-induced jobs apocalypse just yet”. The Economist (2023年3月6日). 2023年3月14日閲覧。
  14. ^ Generative AI: Unlocking the future of fashion”. 2023年3月14日閲覧。
  15. ^ The race of the AI labs heats up”. The Economist (2023年1月30日). 2023年3月14日閲覧。
  16. ^ Google Cloud brings generative AI to developers, businesses, and governments” (2023年3月14日). 2023年3月15日閲覧。
  17. ^ Justin Hendrix (2023年5月16日). “Transcript: Senate Judiciary Subcommittee Hearing on Oversight of AI”. techpolicy.press. 2023年5月19日閲覧。
  18. ^ 「チャットGPT」にEUが要求:情報源を開示せよ”. The Wall Street Journal. 2023年4月28日閲覧。
  19. ^ "Artists are alarmed by AI — and they're fighting back". The Washington Post (英語). 2023年2月18日閲覧
  20. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 2023年11月29日閲覧。
  21. ^ Chee, Foo Yun; Mukherjee, Supantha (2023年6月14日). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ 2023年7月26日閲覧。 
  22. ^ Jones, Rachyl (2023年10月16日). “Marc Andreessen just dropped a 'Techno-Optimist Manifesto' that sees a world of 50 billion people settling other planets”. Fortune. 2023年11月28日時点のオリジナルよりアーカイブ。2023年11月26日閲覧。
  23. ^ finetune-transformer-lm”. GitHub. 2023年5月19日閲覧。
  24. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; Luan, David; Amodei, Dario; Sutskever, Ilya; others (2019). “Language models are unsupervised multitask learners”. OpenAI blog 1 (8): 9. 
  25. ^ Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott” (英語). Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott (2023年12月27日). 2023年12月28日閲覧。
  26. ^ a b https://www.marktechpost.com/2023/03/21/a-history-of-generative-ai-from-gan-to-gpt-4/
  27. ^ Bommasani, R; Hudson, DA; Adeli, E; Altman, R; Arora, S; von Arx, S; Bernstein, MS; Bohg, J; Bosselut, A; Brunskill, E; Brynjolfsson, E (16 August 2021). "On the opportunities and risks of foundation models". arXiv:2108.07258 [cs.LG]。
  28. ^ Chen, Ming; Tworek, Jakub; Jun, Hongyu; Yuan, Qinyuan; Pinto, Hanyu Philippe De Oliveira; Kaplan, Jerry; Edwards, Haley; Burda, Yannick; Joseph, Nicholas; Brockman, Greg; Ray, Alvin (6 July 2021). "Evaluating Large Language Models Trained on Code". arXiv:2107.03374 [cs.LG]。
  29. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021). "Zero-shot text-to-image generation". International Conference on Machine Learning. PMLR. pp. 8821–8831.
  30. ^ Heaven, Will Douglas (2023年2月15日). “AI is dreaming up drugs that no one has ever seen. Now we've got to see if they work”. MIT Technology Review. Massachusetts Institute of Technology. 2023年3月15日閲覧。
  31. ^ Agostinelli, Andrea; Denk, Timo I.; Borsos, Zalán; Engel, Jesse; Verzetti, Mauro; Caillon, Antoine; Huang, Qingqing; Jansen, Aren; Roberts, Adam; Tagliasacchi, Marco; Sharifi, Matt; Zeghidour, Neil; Frank, Christian (26 January 2023). "MusicLM: Generating Music From Text". arXiv:2301.11325 [cs.SD]。
  32. ^ Metz, Cade (2023年4月4日). “Instant Videos Could Represent the Next Leap in A.I. Technology” (英語). The New York Times. 2023年4月30日閲覧。
  33. ^ Queenie Wong (2022年9月29日). “Facebook Parent Meta's AI Tool Can Create Artsy Videos From Text”. cnet.com. 2023年4月4日閲覧。
  34. ^ Sherry Yang, Yilun Du (2023年4月12日). “UniPi: Learning universal policies via text-guided video generation”. Google Research, Brain Team. Google AI Blog. 2023年5月24日閲覧。
  35. ^ 広島AIプロセスについて”. 総務省. 2024年3月7日閲覧。
  36. ^ Secretary-General's remarks to the Security Council on Artificial Intelligence”. un.org (2023年7月18日). 2023年7月27日閲覧。
  37. ^ G7 : 教皇「AIが善を築くための道具ならば、常にすべての人の善のために」”. バチカンニュース (2024年6月14日). 2024年6月19日閲覧。
  38. ^ “The Writers Strike Is Taking a Stand on AI” (英語). Time. (4 May 2023). https://time.com/6277158/writers-strike-ai-wga-screenwriting/ 2023年6月11日閲覧。. 
  39. ^ Tarnoff, Ben (2023年8月4日). “Lessons from Eliza”. The Guardian Weekly: pp. 34–39 
  40. ^ Zhou, Viola (2023年4月11日). “AI is already taking video game illustrators' jobs in China” (英語). Rest of World. 2023年8月17日閲覧。
  41. ^ Carter, Justin (2023年4月11日). “China's game art industry reportedly decimated by growing AI use” (英語). Game Developer. 2023年8月17日閲覧。
  42. ^ Collier, Kevin (2023年7月14日). “Actors vs. AI: Strike brings focus to emerging use of advanced tech”. NBC News. 2024年3月6日閲覧。
  43. ^ Wiggers, Kyle (2023年8月22日). “ElevenLabs' voice-generating tools launch out of beta” (英語). TechCrunch. 2023年9月25日閲覧。
  44. ^ Shrivastava, Rashi. “'Keep Your Paws Off My Voice': Voice Actors Worry Generative AI Will Steal Their Livelihoods” (英語). Forbes. 2023年11月28日閲覧。
  45. ^ 生成AIで関東大震災「新証言」を作成…「捏造」批判受け日赤の企画展中止 読売新聞 2023年9月3日
  46. ^ 生成AIに高校スポーツ記事を書かせた大手新聞社、誤りや品質の苦情続き一時取り下げ。所属記者も「掲載すべきでなかった」と発言”. 2023年9月27日時点のオリジナルよりアーカイブ。2024年1月8日閲覧。
  47. ^ 越前巧、馬場口登、笹原和俊「インフォデミック時代におけるフェイクメディア克服の最前線」『人工知能』人工知能学界 2023年3月号 pp.189 - 196
  48. ^ People Are Still Terrible: AI Voice-Cloning Tool Misused for Deepfake Celeb Clips” (英語). PCMag Middle East (2023年1月31日). 2023年7月25日閲覧。
  49. ^ The generative A.I. software race has begun” (英語). Fortune. 2023年2月3日閲覧。
  50. ^ Milmo, Dan; Hern, Alex (2023年5月20日). “Elections in UK and US at risk from AI-driven disinformation, say experts” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/technology/2023/may/20/elections-in-uk-and-us-at-risk-from-ai-driven-disinformation-say-experts 2023年7月25日閲覧。 
  51. ^ Seeing is believing? Global scramble to tackle deepfakes” (英語). news.yahoo.com. 2023年2月3日閲覧。
  52. ^ Vincent, James (2023年1月31日). “4chan users embrace AI voice clone tool to generate celebrity hatespeech” (英語). The Verge. 2023年2月3日閲覧。
  53. ^ Thompson, Stuart A. (2023年3月12日). “Making Deepfakes Gets Cheaper and Easier Thanks to A.I.” (英語). The New York Times. ISSN 0362-4331. https://www.nytimes.com/2023/03/12/technology/deepfakes-cheapfakes-videos-ai.html 2023年7月25日閲覧。 
  54. ^ A new AI voice tool is already being abused to make deepfake celebrity audio clips” (英語). Engadget (2023年1月31日). 2023年2月3日閲覧。
  55. ^ Sjouwerman, Stu (2022年12月26日). “Deepfakes: Get ready for phishing 2.0”. Fast Company. https://www.fastcompany.com/90829233/deepfakes-get-ready-for-phishing-2-0 2023年7月31日閲覧。 
  56. ^ Collinson, Patrick (2023年7月15日). “Fake reviews: can we trust what we read online as use of AI explodes?” (英語). The Guardian. ISSN 0261-3077. https://www.theguardian.com/money/2023/jul/15/fake-reviews-ai-artificial-intelligence-hotels-restaurants-products 2023年12月6日閲覧。 
  57. ^ After WormGPT, FraudGPT Emerges to Help Scammers Steal Your Data” (英語). PCMAG. 2023年7月31日閲覧。
  58. ^ Sonnemaker, Tyler. “As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring” (英語). Business Insider. 2023年7月31日閲覧。
  59. ^ Gupta, Maanak; Akiri, Charankumar; Aryal, Kshitiz; Parker, Eli; Praharaj, Lopamudra (2023). “From ChatGPT to ThreatGPT: Impact of Generative AI in Cybersecurity and Privacy”. IEEE Access 11: 80218–80245. arXiv:2307.00691. Bibcode2023IEEEA..1180218G. doi:10.1109/ACCESS.2023.3300381. 
  60. ^ ChatGPTで資料作成、実在しない判例引用 米国の弁護士”. 日本経済新聞 (2023年5月31日). 2023年8月15日閲覧。
  61. ^ “ChatGPT: US lawyer admits using AI for case research” (英語). BBC News. (2023年5月27日). https://www.bbc.com/news/world-us-canada-65735769 2023年8月15日閲覧。 
  62. ^ れいわ、虚偽サイト注意呼びかけ 芸能人応援「事実なし」”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  63. ^ れいわ、偽サイトに注意呼びかけ 俳優3人が「応援メッセージ」?”. 朝日新聞 (2023年11月10日). 2023年11月12日閲覧。
  64. ^ 日本テレビ (2023年11月10日). “○○さんらの“偽コメント”ブログ 作成者が日テレの取材に回答(一部伏せ字)”. 日テレNEWS NNN. 2023年11月12日閲覧。
  65. ^ サイト運営者「AIに書かせた」 れいわ新選組の虚偽応援”. 共同通信 (2023年11月10日). 2023年11月12日閲覧。
  66. ^ Rachel Gordon (2023年3月3日). “Large language models are biased. Can logic help save them?”. MIT CSAIL. 2024年1月26日閲覧。
  67. ^ OpenAI (2022年7月18日). “Reducing bias and improving safety in DALL·E 2”. OpenAI. 2024年1月26日閲覧。
  68. ^ Jake Traylor (2022年7月27日). “No quick fix: How OpenAI's DALL·E 2 illustrated the challenges of bias in AI”. NBC News. 2024年1月26日閲覧。
  69. ^ DALL·E 2 pre-training mitigations”. OpenAI (2022年6月28日). 2024年1月26日閲覧。
  70. ^ TV channels are using AI-generated presenters to read the news. The question is, will we trust them?” (英語). BBC News (2024年1月26日). 2024年1月26日時点のオリジナルよりアーカイブ。2024年5月24日閲覧。
  71. ^ Tait, Amelia (2023年10月20日). “‘Here is the news. You can’t stop us’: AI anchor Zae-In grants us an interview” (英語). The Guardian. ISSN 0261-3077. オリジナルの2024年1月28日時点におけるアーカイブ。. https://web.archive.org/web/20240128155805/https://www.theguardian.com/tv-and-radio/2023/oct/20/here-is-the-news-you-cant-stop-us-ai-anchor-zae-in-grants-us-an-interview 2024年5月24日閲覧。 
  72. ^ Kuo, Lily (2018年11月9日). “World's first AI news anchor unveiled in China” (英語). The Guardian. ISSN 0261-3077. オリジナルの2024年2月20日時点におけるアーカイブ。. https://web.archive.org/web/20240220133227/https://www.theguardian.com/world/2018/nov/09/worlds-first-ai-news-anchor-unveiled-in-china 2024年5月24日閲覧。 
  73. ^ These ISIS news anchors are AI fakes. Their propaganda is real.”. Washington Post (2024年5月17日). 2024年5月19日時点のオリジナルよりアーカイブ。2024年5月24日閲覧。
  74. ^ “A magazine touted Michael Schumacher's first interview in years. It was actually AI”. NPR. (2023年4月28日). オリジナルの2023年6月17日時点におけるアーカイブ。. https://web.archive.org/web/20230617222319/https://www.npr.org/2023/04/28/1172473999/michael-schumacher-ai-interview-german-magazine 2023年6月17日閲覧。 
  75. ^ Mullin, Benjamin; Grant, Nico (2023年7月20日). “Google Tests A.I. Tool That Is Able to Write News Articles” (英語). The New York Times. ISSN 0362-4331. オリジナルの2024年5月16日時点におけるアーカイブ。. https://web.archive.org/web/20240516135925/https://www.nytimes.com/2023/07/19/business/google-artificial-intelligence-news-articles.html 2024年5月24日閲覧。 
  76. ^ Kelly, Heather (2024年5月22日). “Meta walked away from news. Now the company’s using it for AI content.” (英語). Washington Post. ISSN 0190-8286. オリジナルの2024年5月22日時点におけるアーカイブ。. https://archive.today/20240522100421/https://www.washingtonpost.com/technology/2024/05/22/meta-ai-news-summaries/ 2024年5月24日閲覧。 
  77. ^ Bartz, Diane; Hu, Krystal (2023年7月21日). “OpenAI, Google, others pledge to watermark AI content for safety, White House says”. Reuters. https://www.reuters.com/technology/openai-google-others-pledge-watermark-ai-content-safety-white-house-2023-07-21/ 
  78. ^ FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”. The White House (2023年10月30日). 2024年1月30日閲覧。
  79. ^ ChatGPT and the EU AI Act”. mhc.ie. Mason Hayes & Curran. 2023年11月29日閲覧。
  80. ^ Chee, Foo Yun; Mukherjee, Supantha (2023年6月14日). “EU lawmakers vote for tougher AI rules as draft moves to final stage” (英語). https://www.reuters.com/technology/eu-lawmakers-agree-changes-draft-artificial-intelligence-rules-2023-06-14/ 2023年7月26日閲覧。 
  81. ^ Ye, Josh (2023年7月13日). “China says generative AI rules to apply only to products for the public”. Reuters. 2023年7月13日閲覧。
  82. ^ 生成式人工智能服务管理暂行办法” (2023年7月13日). Template:Cite webの呼び出しエラー:引数 accessdate は必須です。
  83. ^ Carlini, Nicholas and Hayes, Jamie and Nasr, Milad and Jagielski, Matthew and Sehwag, Vikash and Tram\`{e}r, Florian and Balle, Borja and Ippolito, Daphne and Wallace, Eric (2023). “Extracting training data from diffusion models”. SEC '23: Proceedings of the 32nd USENIX Conference on Security Symposium: 5253–5270. https://dl.acm.org/doi/10.5555/3620237.3620531. 
  84. ^ NYT v. Microsoft, OpenAI (1:23-cv-11195, 12/27/23)
  85. ^ https://wired.jp/article/tiktok-universal-music-group-umg-remove-songs/
  86. ^ https://www.nikkei.com/article/DGXZQOGR204920Q4A320C2000000
  87. ^ a b Generative Artificial Intelligence and Copyright Law”. Congressional Research Service (2023年9月29日). 2024年3月22日時点のオリジナルよりアーカイブ。2024年1月30日閲覧。
  88. ^ Thompson, Stuart (2024年1月25日). “We Asked A.I. to Create the Joker. It Generated a Copyrighted Image.”. The New York Times. 2024年1月25日時点のオリジナルよりアーカイブ。2024年1月26日閲覧。
  89. ^ Hadero, Haleluya; Bauder, David (2023年12月27日). “The New York Times sues OpenAI and Microsoft for using its stories to train chatbots”. Associated Press News (AP News). オリジナルの2023年12月27日時点におけるアーカイブ。. https://web.archive.org/web/20231227150436/https://apnews.com/article/nyt-new-york-times-openai-microsoft-6ea53a8ad3efa06ee4643b697df0ba57 2023年4月13日閲覧。 
  90. ^ The University of Chicago, Department of Computer Science (2024). Nightshade: Data Poisoning to Fight Generative AI with Ben Zhao; Department of Computer Science (Report) (英語).
  91. ^ SAND LAB, UNIVERSITY OF CHICAGO (2024). What Is Nightshade? (Report) (英語).
  92. ^ "Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC (Text with EEA relevance.)". Act of 17 April 2019. The European Parliament & Council of the European Union. 条文の邦訳は公益社団法人著作権情報センターHPを参照。https://www.cric.or.jp/db/world/EU/EU_02a.html
  93. ^ a b 生成AIに関する各国の対応について”. 文化庁. 2024年1月10日閲覧。
  94. ^ 著作権法 | e-Gov法令検索”. elaws.e-gov.go.jp. 2024年1月14日閲覧。
  95. ^ https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/hoseido/r05_07/pdf/94011401_10.pdf
  96. ^ a b c d 文化審議会著作権分科会法制度小委員会「AIと著作権に関する考え方について」【概要】”. 文化庁著作権課. 2024年5月閲覧。
  97. ^ United States Copyright Office (2023). 2023.02.21 Zarya of the Dawn Letter (PDF) (Report) (英語).
  98. ^ Brittain, Blake (2023年8月21日). “AI-generated art cannot receive copyrights, US court says”. Reuters. 2024年1月20日時点のオリジナルよりアーカイブ。2024年1月19日閲覧。
  99. ^ David, Emilla (2023年8月29日). “US Copyright Office wants to hear what people think about AI and copyright”. The Verge. 2024年1月19日時点のオリジナルよりアーカイブ。2024年1月19日閲覧。

関連項目[編集]