OpenAI

出典: フリー百科事典『ウィキペディア(Wikipedia)』
ナビゲーションに移動 検索に移動
Open AI
OpenAI Logo.svg
設立 2015年12月11日 (5年前) (2015-12-11)
設立者 イーロン・マスク, Sam Altman, Ilya Sutskever, Greg Brockman
所在地
製品 OpenAI Gym
寄付基金
  • $1 billion pledged to the non-profit (2015)
  • $1 billion invested into the corporation by Microsoft (2019) [2]
ウェブサイト openai.com
テンプレートを表示

OpenAI は、人工知能を研究する非営利団体である。人類全体に、害をもたらすよりは、有益性があるやりかたで、オープンソースと親和性の高い人工知能を、注意深く推進することを目的として掲げている[3]

概要[編集]

2015年12月に設立された。イーロン・マスクをはじめとする有力な実業家・投資家が参加していることから注目を集める[4]

2016年4月に強化学習アルゴリズムの検証プラットフォームであるOpenAI Gymを発表した[5][6]

アプリケーション[編集]

DALL-E[編集]

自然言語処理と画像生成を組み合わせたAI「DALL・E」を発表。人間でも見分けが付かないほど高精度な文章を生成するAI「GPT-3」のパラメータを使用し、文章からイラストや写真を作り出すことができる。

GPT-3[編集]

Generative Pretrained Transformer 2 (GPT-2) の後継モデルである Generative Pretrained Transformer 3 (GPT-3) は、教師なしの Transformer 言語モデルである。 GPT-3 は 2020 年 5 月に初めて紹介された [7] [8]。 OpenAI によると、GPT-3 には 1,750 億個のパラメータが含まれ、GPT-2(パラメータ数 15 億個)より 2 桁大きい[9]

OpenAI は、GPT-3 は特定の「メタ学習」タスクで成功すると述べた。単一の入出力ペアの目的を一般化できる。この論文は、英語-ルーマニア語間、および英語-ドイツ語間の翻訳および言語間転移学習の例を示している。

GPT-3 のベンチマーク結果は、GPT-2 のそれと比較して劇的に改善している。 OpenAI は、そのような言語モデルのスケールアップは、予測言語モデルの基本的な機能制限に近づいたり遭遇したりする可能性があると警告した。 トレーニングに要した計算量は、GPT-2 では数十ペタフロップ/秒・日だったのに対し、GPT-3 では、数千ペタフロップ/秒・日を要した。

GPT-2 と同様、GPT-3 の完全にトレーニングされたモデルは、悪用される可能性があるという理由ですぐには一般公開されなかった。 OpenAI は、2 か月の無料プライベートベータ版の提供後に有料クラウド API を介したアクセスを許可する予定だった。

脚注[編集]

  1. ^ Markoff, John (2015年12月11日). “Artificial-Intelligence Research Center Is Founded by Silicon Valley Investors”. The New York Times. https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html 2015年12月12日閲覧。 
  2. ^ Metz, Cade (2019年7月22日). “With $1 Billion From Microsoft, an A.I. Lab Wants to Mimic the Brain”. The New York Times. https://www.nytimes.com/2019/07/22/technology/open-ai-microsoft.html 2019年7月22日閲覧。 
  3. ^ Introducing OpenAI”. OpenAI Blog. Open AI (2015年12月11日). 2015年5月15日閲覧。
  4. ^ Meyers, Michelle (2015年12月14日). “イーロン・マスク氏ら、AI研究組織「OpenAI」を創設--人類への貢献を目指す”. CNET Japan. 2016年5月15日閲覧。
  5. ^ OpenAI Gym Beta”. OpenAI Blog. Open AI (2016年4月27日). 2016年5月15日閲覧。
  6. ^ Reynolds, Emily (2016年5月2日). “「AI用トレーニングジム」を、OpenAIがオープン”. WIRED.jp. 2016年5月15日閲覧。
  7. ^ openai/gpt-3”. OpenAI (2020年5月29日). 2020年7月30日閲覧。
  8. ^ Sagar, Ram (2020年6月3日). “OpenAI Releases GPT-3, The Largest Model So Far” (英語). Analytics India Magazine. 2020年6月14日閲覧。
  9. ^ Brown, Tom; Mann, Benjamin; Ryder, Nick; Subbiah, Melanie; Kaplan, Jared; Dhariwal, Prafulla; Neelakantan, Arvind; Shyam, Pranav; Sastry, Girish; Askell, Amanda; Agarwal, Sandhini (1 June 2020). "Language Models are Few-Shot Learners". arXiv:2005.14165. Since we increase the capacity by over two orders of magnitude from GPT-2 to GPT-3

外部リンク[編集]